Forwarded from Адель и МЛь
У Лекса Фридмана вышло интервью с командой Neuralink и Илоном Максом на 8.5 часов. Блин, восемь с половиной часов Фридмана, как это выдержать?
https://youtu.be/Kbk9BiPhm7o?si=GWKKRF-T9reRV-DL
https://youtu.be/Kbk9BiPhm7o?si=GWKKRF-T9reRV-DL
YouTube
Elon Musk: Neuralink and the Future of Humanity | Lex Fridman Podcast #438
Elon Musk is CEO of Neuralink, SpaceX, Tesla, xAI, and CTO of X. DJ Seo is COO & President of Neuralink. Matthew MacDougall is Head Neurosurgeon at Neuralink. Bliss Chapman is Brain Interface Software Lead at Neuralink. Noland Arbaugh is the first human to…
Тепловая карта релизов моделей на Hugging Face
Пользователь cfahlgren1 представил Model Release Heatmap - визуализацию релизов моделей известных лабораторий на движке платформы Hugging Face Spaces.
Проект демонстрирует динамику выпуска различных моделей машинного обучения в формате интерактивной тепловой карты.
Теперь можно увидеть, как часто рождаются новые нейросети. Скоро придется обновлять каждый день! 🚀🧠
#HuggingFace #ModelRelease #Visualization
-------
@tsingular
Пользователь cfahlgren1 представил Model Release Heatmap - визуализацию релизов моделей известных лабораторий на движке платформы Hugging Face Spaces.
Проект демонстрирует динамику выпуска различных моделей машинного обучения в формате интерактивной тепловой карты.
Теперь можно увидеть, как часто рождаются новые нейросети. Скоро придется обновлять каждый день! 🚀🧠
#HuggingFace #ModelRelease #Visualization
-------
@tsingular
👍1
Forwarded from Анализ данных (Data analysis)
GitHub представил новый маркетплейс моделей машинного обучения под названием Models, который претендует на конкуренцию с Hugging Face.
Проект пока в тестировании, но вы можете записаться в лист ожидания.
Ключевые преимущества Models: возможность протестировать нейронную сеть в песочнице перед переносом кода в VS Code или Codespaces, а также интеграция с Azure и другими популярными сервисами для разработчиков.
На платформе уже доступно более 20 нейросетей, включая GPT-4o, GPT-4o mini и Llama 3.1. Библиотека будет регулярно пополняться, и разработчики смогут добавлять свои модели.
▪ Github
@data_analysis_ml
Проект пока в тестировании, но вы можете записаться в лист ожидания.
Ключевые преимущества Models: возможность протестировать нейронную сеть в песочнице перед переносом кода в VS Code или Codespaces, а также интеграция с Azure и другими популярными сервисами для разработчиков.
На платформе уже доступно более 20 нейросетей, включая GPT-4o, GPT-4o mini и Llama 3.1. Библиотека будет регулярно пополняться, и разработчики смогут добавлять свои модели.
▪ Github
@data_analysis_ml
👍4
MIT создаёт новое железо для сверхбыстрого ИИ
Учёные Массачусетского технологического института разработали инновационное аппаратное обеспечение для ускорения вычислений в сфере ИИ.
Ключевой элемент - программируемые резисторы на основе фосфоросиликатного стекла, совместимые с кремниевыми технологиями.
Устройства работают в миллион раз быстрее предшественников и синапсов мозга, потребляя меньше энергии.
Технология позволяет создавать компоненты нанометрового масштаба, устойчивые к миллионам циклов работы.
Применение: беспилотные авто, обнаружение мошенничества, анализ медицинских снимков.
И потом еще квантовую запутанность прикрутят и тогда будет ASI 🤖🧠
#MIT #HardwareInnovation #AnalogComputing
-------
@tsingular
Учёные Массачусетского технологического института разработали инновационное аппаратное обеспечение для ускорения вычислений в сфере ИИ.
Ключевой элемент - программируемые резисторы на основе фосфоросиликатного стекла, совместимые с кремниевыми технологиями.
Устройства работают в миллион раз быстрее предшественников и синапсов мозга, потребляя меньше энергии.
Технология позволяет создавать компоненты нанометрового масштаба, устойчивые к миллионам циклов работы.
Применение: беспилотные авто, обнаружение мошенничества, анализ медицинских снимков.
И потом еще квантовую запутанность прикрутят и тогда будет ASI 🤖🧠
#MIT #HardwareInnovation #AnalogComputing
-------
@tsingular
🔥4
Forwarded from Data Secrets
Тем временем еще двое бывших инженеров Google со своим стартапом строят планы перещеголять Nvidia
Компания занимается разработкой ИИ-чипов, называется Groq (как тебе такое, Илон Маск?) и сейчас оценивается в $2.8 миллиарда. Недавно стало известно, что они привлекли $640 миллионов новых вложений.
Кроме новости про инвестиции также появилась новость о том, что в качестве нового тех.консультанта у Groq выступит Ян Лекун, а в качестве COO – Стюард Панн, бывший директор тех.производства Intel и ex-CIO HP😮
Сейчас компания занимается чипом нового поколения LPU (language processing unit). Как вы понимаете, специально для LLM. Обещают х10 к скорости инференса и выпуск в Q1 2025.
Компания занимается разработкой ИИ-чипов, называется Groq (как тебе такое, Илон Маск?) и сейчас оценивается в $2.8 миллиарда. Недавно стало известно, что они привлекли $640 миллионов новых вложений.
Кроме новости про инвестиции также появилась новость о том, что в качестве нового тех.консультанта у Groq выступит Ян Лекун, а в качестве COO – Стюард Панн, бывший директор тех.производства Intel и ex-CIO HP
Сейчас компания занимается чипом нового поколения LPU (language processing unit). Как вы понимаете, специально для LLM. Обещают х10 к скорости инференса и выпуск в Q1 2025.
Please open Telegram to view this post
VIEW IN TELEGRAM
IBM внедряет ИИ ассистента в Threat detection & response
Компания представила новый ИИ-помощник для обнаружения угроз и реагирования, построенный на платформе watsonx.
Ассистент ускоряет идентификацию и расследование критических угроз, сократив время анализа на 48%.
Система проводит исторический анализ схожих инцидентов, изучает шаблоны активности и предоставляет временную шкалу атак.
ИИ-помощник автоматически рекомендует действия и включает разговорный интерфейс для поддержки операционных задач.
Технология разработана совместно с IBM Research, используя Granite foundation models и watsonx.ai.
Интеллектуализация кибербеза на марше. Актуально, с учётом дефицита кадров.
#IBM #watsonx #cybersecurity
-------
@tsingular
Компания представила новый ИИ-помощник для обнаружения угроз и реагирования, построенный на платформе watsonx.
Ассистент ускоряет идентификацию и расследование критических угроз, сократив время анализа на 48%.
Система проводит исторический анализ схожих инцидентов, изучает шаблоны активности и предоставляет временную шкалу атак.
ИИ-помощник автоматически рекомендует действия и включает разговорный интерфейс для поддержки операционных задач.
Технология разработана совместно с IBM Research, используя Granite foundation models и watsonx.ai.
Интеллектуализация кибербеза на марше. Актуально, с учётом дефицита кадров.
#IBM #watsonx #cybersecurity
-------
@tsingular
Forwarded from Denis Sexy IT 🤖
Кто-то сделал бизнес из всего этого зоопарка LLM моделей:
Платишь $229 и тебе доставляют жесткий диск на 14 Tb забитый самыми передовыми языковыми моделям☕️
Ждем такое же, но в закладках, и тогда вот уже точно киберпанк
Платишь $229 и тебе доставляют жесткий диск на 14 Tb забитый самыми передовыми языковыми моделям
Ждем такое же, но в закладках, и тогда вот уже точно киберпанк
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👾2
Forwarded from XOR
Forwarded from Dealer.AI
Your big 1T mama llama. 🦙
BigLlama-3.1 1T модель, не знаю шутка ли, но над потрогать.
https://huggingface.co/mlabonne/BigLlama-3.1-1T-Instruct
UPD. Как так вышло? Просто настакали merge'ей и доучили.
BigLlama-3.1 1T модель, не знаю шутка ли, но над потрогать.
https://huggingface.co/mlabonne/BigLlama-3.1-1T-Instruct
UPD. Как так вышло? Просто настакали merge'ей и доучили.
huggingface.co
mlabonne/BigLlama-3.1-1T-Instruct · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла Figure 02
https://www.figure.ai/
Высота 168cm
Грузоподъемность 20 кг
Вес 70 кг
Время работы 5 ч
Скорость 1,2 м/с
#Figure
———
@tsingular
https://www.figure.ai/
Высота 168cm
Грузоподъемность 20 кг
Вес 70 кг
Время работы 5 ч
Скорость 1,2 м/с
#Figure
———
@tsingular
Forwarded from Сиолошная
Пара новостей от OpenAI (чтобы замять исход команды лидеров, кек):
1) теперь есть не просто JSON-режим, когда модель отвечает вам в машино-читаемом формате, а структурированная генерация. Первый (представленный в прошлом году) просто повышает надежность модели для создания синтаксически валидных JSON, а второй гарантирует, что ответ модели будет соответствовать определенной схеме. Вот если вы пишете "мне нужно, чтобы были такие-то и такие-то поля, и никаких больше" - теперь в 100% случаев будет исполняться. Можно указывать сложные вложенные структуры (см. картинку).
2) вышла новая gpt-4o, gpt-4o-2024-08-06, но об улучшениях в метриках и качестве работы ничего не говорят
3) зато она дешевле в 2 раза! не знаю, что там делают внутри компании - роняют маржинальность или дистиллируют более качественно (или на самом деле новая модель хуже..), но вот, теперь новая цена $2.50/$10 за миллион токенов на входе и на выходе (против $5/$15).
Напомню, что у OpenAI ещё есть BatchAPI (это когда нужно ждать ответа до 24 часов - подходит для разных несрочных задач), который делит цену на два. Совсем копеешно получается!
1) теперь есть не просто JSON-режим, когда модель отвечает вам в машино-читаемом формате, а структурированная генерация. Первый (представленный в прошлом году) просто повышает надежность модели для создания синтаксически валидных JSON, а второй гарантирует, что ответ модели будет соответствовать определенной схеме. Вот если вы пишете "мне нужно, чтобы были такие-то и такие-то поля, и никаких больше" - теперь в 100% случаев будет исполняться. Можно указывать сложные вложенные структуры (см. картинку).
2) вышла новая gpt-4o, gpt-4o-2024-08-06, но об улучшениях в метриках и качестве работы ничего не говорят
3) зато она дешевле в 2 раза! не знаю, что там делают внутри компании - роняют маржинальность или дистиллируют более качественно (или на самом деле новая модель хуже..), но вот, теперь новая цена $2.50/$10 за миллион токенов на входе и на выходе (против $5/$15).
Напомню, что у OpenAI ещё есть BatchAPI (это когда нужно ждать ответа до 24 часов - подходит для разных несрочных задач), который делит цену на два. Совсем копеешно получается!
XBOW: ИИ-пентестер на уровне лучших профи
XBOW продемонстрировал впечатляющие результаты в сравнении с человеческими пентестерами.
В серии из 104 тестов, охватывающих OWASP Top 10, ИИ-система показала 85% успеха, сравнявшись по эффективности с ведущим экспертом.
При этом, скорость XBOW оказалась в 85 раз выше: 28 минут против 40 часов работы людей.
ИИ превзошёл специалистов на лёгких и средних задачах, но пока, предсказуемо, уступил топ-эксперту в сложных сценариях.
Непрерывная работа XBOW позволяет выявлять уязвимости на ранних этапах разработки ПО.
Технология не заменит профессию, но трансформирует подход к кибербезопасности, делая её более интегрированной в процесс создания софта.
Автоматизация пентеста с обеих сторон перейдёт на новый уровень. х10 0day в месяц.
Оно пока в закрытой бете, но как выйдет, - интересно будет посмотреть.
#XBOW #pentesting #cybersecurity
-------
@tsingular
XBOW продемонстрировал впечатляющие результаты в сравнении с человеческими пентестерами.
В серии из 104 тестов, охватывающих OWASP Top 10, ИИ-система показала 85% успеха, сравнявшись по эффективности с ведущим экспертом.
При этом, скорость XBOW оказалась в 85 раз выше: 28 минут против 40 часов работы людей.
ИИ превзошёл специалистов на лёгких и средних задачах, но пока, предсказуемо, уступил топ-эксперту в сложных сценариях.
Непрерывная работа XBOW позволяет выявлять уязвимости на ранних этапах разработки ПО.
Технология не заменит профессию, но трансформирует подход к кибербезопасности, делая её более интегрированной в процесс создания софта.
Автоматизация пентеста с обеих сторон перейдёт на новый уровень. х10 0day в месяц.
Оно пока в закрытой бете, но как выйдет, - интересно будет посмотреть.
#XBOW #pentesting #cybersecurity
-------
@tsingular
🔥1
Cloud Security Alliance: ИИ в наступательной кибербезопасности
Cloud Security Alliance опубликовала отчет об использовании ИИ в сфере наступательной кибербезопасности.
Документ анализирует потенциал и ограничения языковых моделей в контексте пяти фаз: разведка, сканирование, анализ уязвимостей, эксплуатация и отчетность.
Эксперты подчеркивают, что ИИ не панацея, а инструмент дополнения работы специалистов.
Ключевые вызовы: обработка массивных данных, точное выявление уязвимостей, ограничения токенов в моделях.
При этом рекомендуется сохранять человеческий контроль и внедрять надежные системы управления при автоматизации задач.
Отчёт в комментариях.
#CloudSecurityAlliance #OffensiveSecurity #LLM
-------
@tsingular
Cloud Security Alliance опубликовала отчет об использовании ИИ в сфере наступательной кибербезопасности.
Документ анализирует потенциал и ограничения языковых моделей в контексте пяти фаз: разведка, сканирование, анализ уязвимостей, эксплуатация и отчетность.
Эксперты подчеркивают, что ИИ не панацея, а инструмент дополнения работы специалистов.
Ключевые вызовы: обработка массивных данных, точное выявление уязвимостей, ограничения токенов в моделях.
При этом рекомендуется сохранять человеческий контроль и внедрять надежные системы управления при автоматизации задач.
Отчёт в комментариях.
#CloudSecurityAlliance #OffensiveSecurity #LLM
-------
@tsingular
Forwarded from эйай ньюз
Дешёвые, как грязь, LLM
API-провайдеры невероятно быстро снижают стоимость использования своих LLM. При отсутствии ярко выраженного лидера по качеству моделей, главным аргументом становится цена.
➖ Google с 12 августа дропает цены на Gemini Flash на 80%. Вот и реакция на GPT-4o mini, спустя две недели после релиза. Вот бы то же самое сделали с Pro 1.5.
➖ Новая версия GPT-4o упала в цене до $2.5 input/$10 output за миллион токенов, прошлые версии стоили $5 input/$15 output за миллион токенов. Последний месяц Claude 3.5 Sonnet и Llama 3.1 405B сильно поджимали OpenAI по цене, пришлось отвечать.
➖Deepseek релизит обещанный месяц назад Context Caching. Цены поражают: стоимость токенов при попадании в кэш падает не в 2x, как у гугла, а в 10x, при этом с бесплатным хранением. DeepSeek V2 и так произвёл эффект разорвавшейся бомбы на китайском рынке три месяца назад: модель была в разы дешевле конкурентов, при лучшем качестве. А сейчас нанесли добивающий удар.
С такими темпами цена за миллион токенов станет меньше цента менее чем через год. И будем мы мерять цены в долларах за миллиард токенов.
А помните, цены на GPT-4 доходили до $60 input/$120 output?
@ai_newz
API-провайдеры невероятно быстро снижают стоимость использования своих LLM. При отсутствии ярко выраженного лидера по качеству моделей, главным аргументом становится цена.
➖ Google с 12 августа дропает цены на Gemini Flash на 80%. Вот и реакция на GPT-4o mini, спустя две недели после релиза. Вот бы то же самое сделали с Pro 1.5.
➖ Новая версия GPT-4o упала в цене до $2.5 input/$10 output за миллион токенов, прошлые версии стоили $5 input/$15 output за миллион токенов. Последний месяц Claude 3.5 Sonnet и Llama 3.1 405B сильно поджимали OpenAI по цене, пришлось отвечать.
➖Deepseek релизит обещанный месяц назад Context Caching. Цены поражают: стоимость токенов при попадании в кэш падает не в 2x, как у гугла, а в 10x, при этом с бесплатным хранением. DeepSeek V2 и так произвёл эффект разорвавшейся бомбы на китайском рынке три месяца назад: модель была в разы дешевле конкурентов, при лучшем качестве. А сейчас нанесли добивающий удар.
С такими темпами цена за миллион токенов станет меньше цента менее чем через год. И будем мы мерять цены в долларах за миллиард токенов.
А помните, цены на GPT-4 доходили до $60 input/$120 output?
@ai_newz
❤🔥1
Forwarded from Machinelearning
⚡️Qwen выпустили Qwen2-Math, размером 1.5B, 7B и 72B, превосходящие GPT4o, Claude 3.5 на AIME 24/ AMC 23. 🔥
> 84 (72B), 75 (7B), 69,4 (1,5B) баллов на MATH
> > 72B SoTA на MMLU STEM
> Лицензия Apache 2.0 для версии 1.5B и 7B, 72B выпущена под лицензией Qianwen
> Основана на той же архитектуре, что и Qwen 2
> Интеграция с Transformers! 🤗
▪Hf
▪Github
▪Tech report
▪Scope
@ai_machinelearning_big_data
#opensource #Qwen #math
> 84 (72B), 75 (7B), 69,4 (1,5B) баллов на MATH
> > 72B SoTA на MMLU STEM
> Лицензия Apache 2.0 для версии 1.5B и 7B, 72B выпущена под лицензией Qianwen
> Основана на той же архитектуре, что и Qwen 2
> Интеграция с Transformers! 🤗
▪Hf
▪Github
▪Tech report
▪Scope
@ai_machinelearning_big_data
#opensource #Qwen #math