Павленко про Dev & AI
309 subscribers
238 photos
61 videos
4 files
333 links
GenAI-евангелист. 21 год в разработке.
Download Telegram
Прогноз "ИИ 2027": кто за ним стоит и стоит ли доверять?

На днях вышел доклад "ИИ 2027". Рекомендую изучить этот одностраничник хотя бы с точки зрения подачи материала - очень интерактивно: с таймлайном и графиками. Доклад "ИИ 2027" был разработан исследователями из OpenAI - Даниэлем Кокотайло (покинувшим компанию в прошлом году) и Илаем Лифландом. Проект A.I. Futures Project потратил около года на подготовку этого 165-страничного документа.

Почему стоит прислушаться:
- Даниэль Кокотайло имеет успешный опыт прогнозирования в сфере ИИ. В 2021 году, за год до появления ChatGPT, он изложил прогноз развития ИИ, часть которого впоследствии подтвердилась.
- Некоторые из казавшихся невероятными прогнозов в сфере ИИ уже сбылись, например, прохождение машинами теста Тьюринга.
- Документ содержит детальные исследования, включая прогнозы по вычислительным мощностям, временным рамкам, сценариям развития и вопросам безопасности.

Почему стоит сомневаться:
- Прогноз подвергся критике со стороны экспертного сообщества. Например, Али Фархади, исполнительный директор Института искусственного интеллекта Аллена, заявил, что документ не подкреплен научными данными и не отражает текущие тенденции в развитии ИИ.
- The New York Times характеризует взгляды Кокотайло как "экстремальные". Они связаны с философией эффективного альтруизма, популярной среди ученых, предупреждающих о негативных последствиях развития ИИ.
- В 2024 году Кокотайло заявил, что вероятность того, что искусственный интеллект уничтожит или нанесет катастрофический вред человечеству, составляет 70% - что многим кажется чрезмерно пессимистичным.

Ключевые прогнозы
Авторы предсказывают, что к 2027 году будут созданы системы ИИ, превосходящие интеллектуальный уровень человека. Они описывают сценарий, в котором вымышленная компания создает серию все более совершенных ИИ-систем ("Агент-1", "Агент-2" и т.д.), что в итоге приводит к появлению "Агента-4", демонстрирующего прорывные достижения каждую неделю, но при этом возникает угроза его неконтролируемого развития.

Согласно прогнозу, после достижения AGI (искусственного общего интеллекта) переход к ASI (искусственному сверхинтеллекту) путем самообучения будет происходить очень быстро, что может привести к непредсказуемым последствиям для человечества.
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research

Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:

–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов

И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.

Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.

Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
🔥1
А кто из вас хоть раз задавал своему ИИ такой вопрос? Отголоски тимлидства при общении с ИИ.
Forwarded from Denis Sexy IT 🤖
Google выпустил манул по промпт инженерингу на 68 страниц – в нем все существующие стратегии составления промптов:

https://www.kaggle.com/whitepaper-prompt-engineering

Все кто хотели вкатиться в LLM-парселтанг, время пришло
Был бы вам интересен вебинар часа на 2, где мы в реальном времени создадим приложение с нуля, с помощью ИИ-ассистентов?

Бесплатно 👨‍🏫

Пишите в комментариях идеи веб-приложений.
👍8🔥2
Docker скопировали Ollama 😄 Теперь модели можно запускать с помощью докера. Не знаю насколько на данный момент реализация кривая, так что, думаю есть смысл еще какое-то время пользоваться Ollama.
OpenAI показали свои новые модели GPT-4.1, GPT-4.1 mini и GPT-4.1 nano

В чате их не будет: они только для разработчиков в API. У всех трех моделей контекст 1 миллион токенов, для OpenAI это впервые. Знания до 1 июля 2024.

Эти модели тренировали специально, чтобы они были эффективны в задачах связанных с разработкой. В честь запуска Cursor и Windsurf дают попользоваться этими моделями совершенно бесплатно 🆓
🤯3
Forwarded from Machinelearning
🚀 Codex CLI

"Модели o3 и o4-mini настолько сильны в программировании, что мы решили упростить их использование и выпустить новый продукт"" — Codex CLI - написал в своем аккаунт Альтман

💻 Codex CLI — это мощный программирующий агент, который работает локально на вашем компьютере.

- Чат-ориентированная разработка: Позволяет взаимодействовать с вашим репозиторием через диалоговый интерфейс.​

- Выполнение кода: Способен запускать код, манипулировать файлами и выполнять итерации прямо в терминале.​

- Интеграция с системами контроля версий: Обеспечивает работу под управлением систем контроля версий, таких как Git.​

🌟 Полностью open source и уже доступен для скачивания!

npm install -g @openai/codex

https://github.com/openai/codex

@ai_machinelearning_big_data


#AI #OpenSource #CodexCLI #Coding #LLM #DevTools
Forwarded from Data Secrets
Вышла Gemini 2.5 Flash. Что нужно знать:

– Это гибридная модель с ризонингом, продолжительность рассуждений она контролирует сама, но в API можно настраивать бюджет ризонинга вручную

– Почти на всех бенчмарках модель лучше Sonnet 3.7 и R1.

– o4-mini и Grok-3 выглядят чуть получше, но по соотношению цена-качество проигрывают однозначно

Модель очень дешевая. 0.15$/М инпут и 0.6$/М аутпут (с ризонингом 3.5$).

Попробовать можно здесь
Google выпустила свой инструмент для AI-разработки. Упаковали в браузер VS Code + чат + браузер. Идея такая, что можно быстро прототипировать свои идеи и допиливать также через чат, либо более привычным способом, через IDE. https://firebase.studio/

Я попробовал: дал ему простенькое задание веб-приложения. Он составил хороший чёткий план, но с кодом не справился. Писал на Typescript+React. Вылетают постоянные ошибки компиляции и сам себя исправить не может. Для проектов, где больше 1000 строк кода пока что не годится.
Месяц спустя, после релиза Claude Code и усиленного внутреннего тестирования, и фидбэка от комьюнити, Anthropic опубликовали Best Practices по разработке в Claude Code. Это реально интересно - первый гайд не от вайб-кодеров, а создателей 👏
Forwarded from Data Secrets
Там Стэнфорд выложили на YouTube свой свежий курс CS336: Language Modeling from Scratch

Это практический курс, в котором вся теория по LLM подается в процессе разработки собственной модели. Получается изучение end-to-end: от обработки данных и архитектуры трансформера до RL и эвала.

Ведет курс опытный профессор университета и сооснователь TogetherAI Перси Лианг.

Ну и главное: курс новый и вся информация актуальна на сегодняшний день. Он даже в самом Стэнфорде еще идет прямо сейчас, так что лекции и код продолжат выкладывать по ходу.

Репозиторий с дз и ноутбуками
Сайт курса
YouTube
🔥3🏆1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Кстати, кому интересно, Микрософт опенсорснул вот такой питонг-тул, для конвертации любых документов в MarkDown.

С потерями, конечно, но поглядите, что он умеет конвертировать:

- PDF
- PowerPoint
- Word
- Excel
- Images (EXIF metadata and OCR)
- Audio (EXIF metadata and speech transcription)
- HTML
- Text-based formats (CSV, JSON, XML)
- ZIP files (iterates over contents)
- Youtube URLs
- EPubs

Он даже звук и картинки на вход принимает, и описывает их.

https://github.com/microsoft/markitdown

@cgevent
🔥4
Имба для кодеров: появилась новая тулза, превращающая любой гитхаб-репозиторий в полноценный учебник.

ИИ анализирует весь код, разбирает его структуру и создаёт подробный, понятный гайд, объясняющий, как всё устроено.

Вы сможете:
- Легко осваивать новые технологии;
- Учиться программированию на реальных проектах;
- Писать документацию для своих репозиториев;
- Разбираться в сложном и запутанном коде.
🔥4👍2
Forwarded from Data Secrets
Мотивации пост: сейчас в топ-1 по популярности на Hugging Face висит модель, которую разработала команда… из двух человек

Лаборатория называется Nari Labs, и она действительно состоит всего из двух исследователей. Несмотря на это, на этой неделе они со своей text2speech моделью DIA оставили позади Microsoft, Anthropic, Nvidia и другие корпорации.

Моделька у них правда крутая. В ней всего 1.6B параметров, но она генерирует из текста очень качественные диалоги. Сохраняет даже смех, кашель и вздохи. Плюс, пользователь может управлять эмоциями.

При этом у ребят действительно понятная и красивая карточка модели и хорошо оформленный код на гитхаб. Респект?
🔥3
Forwarded from Denis Sexy IT 🤖
CISO (директор по защите информации) Анторопика считает, что уже через ~год в ваших слаках / тимс / гитхабах начнут появляться виртуальные коллеги – автономные АИ-сотрудники с собственной «памятью», корпоративными логинами и чётко прописанной ролью и в отличие от сегодняшних агент-скриптов, они смогут самостоятельно расширять задачи и принимать решения без прямого запроса человека. И даже ставить задачи вам, я знаю вы только этого и ждали ☕️

Пока что системы контроля доступа к такому уровню свободы не готовы: непонятно, как безопасно выпускать и отзывать их учётные данные, до какой степени открывать им доступ к внутренним сетям и кто понесёт ответственность, если такой бот все сломает и хакнет компанию (спойлер – виноват IT отдел, как всегда)

В статье еще написано, что компаниям бы уже сейчас начать думать, про – автоматические учётки, перевести их на короткоживущие токены, внедрить аварийный «килл-свитч» для подозрительных АИ-аккаунтов и чётко прописать, кто отвечает за действия бота, если тот вдруг превратится из помощника в инсайдера

Но зная как работает бизнес много где, мне кажется многие компании сначала подключат АИ-коллег, а потом будут разбираться с последствиями 💃

Статья целиком:
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
Модель перевода видео в Яндекс Браузере научили сохранять тембр и интонации спикера

Раньше в Яндексе синтез речи при переводе видео осуществлялся заранее подготовленным набором голосов, которые просто подбирались по полу и тону. Но сейчас инженеры шагнули дальше, и теперь система сохраняет интонации и тембр говорящего, а перевод звучит максимально близко к оригиналу.

Вот, как это устроено технически:

🟦 За основу взяли модель Tortoise text-to-speech. Идея похожа на привычные LLM: модель принимает на вход некоторый аудиопромпт (это наше видео) и текстовую последовательность (это перевод), а далее происходит предсказание дискретных аудиотокенов речи. Однако оригинальная Tortoise очень медленная на инференсе (отсюда и название), а еще у нее есть проблемы с акцентом и шумными аудиопромптами, так что модель пришлось значительно дорабатывать.

🟦 Во-первых, исследователи заменили токенизатор BPE на фонемное представление. Это значит, что текст перевода, который подается в сеть, токенизируется не ванильным LLM-ным способом, а фонемной транскрипцией. Для такой токенизации компании пришлось даже найти лингвиста и составить с ним русско-английский фонемный алфавит.

🟦 Во-вторых, в модель добавили биометрические эмбеддинги. Важно, что эти эмбеддинги практически не обучаются, чтобы предотвратить «подглядывание» LM за правильным ответом и снизить риск переобучения.

🟦 Кроме биометрии для снижения акцента и повышения качества в модель добавили автометрику синтеза UTMOS. В данном случае это как бы гиперпараметр качества синтеза, чтобы модель училась генерировать не просто какую-то речь, а хорошо различимую, но в то же время естественную.

🟦 Ну и, наконец, рисерчеры плотно поработали с данными (включая пайплайн предобработки с денойзингом) и добавили инженерных хаков для скорости. Например, с диффузионкой провернули knowledge distillation, прикрутили flash attention, добавили обработку масок в батчах. В итоге из мега-медленной Tortoise получилась модель, которая очень шустро работает в реалтайме.

В общем, очень значительная работа получилась и с инженерной, и с исследовательской, и с продуктовой точки зрения. Итоговые метрики на уровне даже по сравнению с ElevenLabs.

Больше тех.деталей – на Хабре. А модельку уже можно попробовать в Яндекс Браузере.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1