🚀 Будущее разработки наступило тихо
Создатель Claude Code из Anthropic, Борис Черны, поделился цифрами, от которых становится немного не по себе:
❓ Главный вопрос:
*где будет наша профессия к концу 2027/28?*
— станем архитекторами и наставниками для ИИ;
— будем управлять пайплайнами и проверять качество;
— или «чистое кодинг-время» просто исчезнет?
Одно ясно: игра меняется — и выигрывать будут те, кто научится работать вместе с ИИ, а не против него.
Что думаешь - тревожно или это огромная возможность? 🤔
Создатель Claude Code из Anthropic, Борис Черны, поделился цифрами, от которых становится немного не по себе:
> «За последние 30 дней **100%** моих коммитов в Claude Code были написаны… Claude Code.
> 259 PR, 497 коммитов, +40k строк, −38k строк.
> Каждую строку написал ИИ (Claude Code + Opus 4.5).»
❓ Главный вопрос:
*где будет наша профессия к концу 2027/28?*
— станем архитекторами и наставниками для ИИ;
— будем управлять пайплайнами и проверять качество;
— или «чистое кодинг-время» просто исчезнет?
Одно ясно: игра меняется — и выигрывать будут те, кто научится работать вместе с ИИ, а не против него.
Что думаешь - тревожно или это огромная возможность? 🤔
This media is not supported in your browser
VIEW IN TELEGRAM
На «радиостанции Судного дня» внезапно зазвучало «Лебединое озеро» 🎶
UVB-76 - её же называют «Гудок»- та самая загадочная коротковолновая станция, которая вещает с 1970-х.
Она передаёт однообразный сигнал, время от времени странные фразы.
Официального назначения унее нет. Заговорщики спорят десятилетиями.
И вот - новая «пасхалка»:
в эфире вдруг прозвучало «Лебединое озеро».
Что это было?
⚡ кодовый сигнал,
🎭 чья-то шутка оператора,
🛰 или просто тест трансляции?
Никто не признаётся — а значит, загадка живёт дальше.
UVB-76 - её же называют «Гудок»- та самая загадочная коротковолновая станция, которая вещает с 1970-х.
Она передаёт однообразный сигнал, время от времени странные фразы.
Официального назначения унее нет. Заговорщики спорят десятилетиями.
И вот - новая «пасхалка»:
в эфире вдруг прозвучало «Лебединое озеро».
Что это было?
⚡ кодовый сигнал,
🎭 чья-то шутка оператора,
🛰 или просто тест трансляции?
Никто не признаётся — а значит, загадка живёт дальше.
💰 Forbes назвал самых молодых миллиардеров в мире и это основатели AI-платформы
Трое 22-летних американцев - Adarsh Hiremath, Brendan Foody и Surya Midhi: попали в список Forbes как самые молодые миллиардеры.
Они создали Mercor платформу, где разработчики и компании используют ИИ для автоматизации написания и проверки кода.
Цифры впечатляют:
💵 состояние каждого: $2,2 млрд
🏢 оценка компании частными инвесторами около $10 млрд
AI-рынок не просто растёт, он создаёт новое поколение технологических миллиардеров.
https://www.forbes.com/profile/adarsh-hiremath/
Трое 22-летних американцев - Adarsh Hiremath, Brendan Foody и Surya Midhi: попали в список Forbes как самые молодые миллиардеры.
Они создали Mercor платформу, где разработчики и компании используют ИИ для автоматизации написания и проверки кода.
Цифры впечатляют:
💵 состояние каждого: $2,2 млрд
🏢 оценка компании частными инвесторами около $10 млрд
AI-рынок не просто растёт, он создаёт новое поколение технологических миллиардеров.
https://www.forbes.com/profile/adarsh-hiremath/
Нейросети добрались до палеолита: LLM, которую можно запустить на процессоре из 1976 года 😮
Пока OpenAI оставляют нас без доступных видеокарт и оперативки, энтузиаст доказал, что для этих ваших ИИ достаточно и 4 МГц😂
Он создал языковую модель, которая умудряется работать на легендарном 8-битном чипе Z80 (да-да, том самом, что стоял в ZX Spectrum).
Как это вообще возможно:
— Экстремальное сжатие: веса модели квантованы до 2 бит (значения только -2, -1, 0, +1);
— Никаких чисел c плавающей точкой. Вся математика переписана на целочисленную, понятную старому процессору;
— Весь «мозг» вместе с чат-интерфейсом весит смешные 40 КБ и запускается из-под CP/M.
Работает схема так: тренируете модель с комфортом на Python, экспортируете .COM файл, заливаете на ретро-ПК и наслаждаетесь беседой с зеленым экраном. Тест Тьюринга врядли пройдет, но для вау-эффекта этого более чем достаточно😂
Сдуваем пыль со своих железок😁
Пока OpenAI оставляют нас без доступных видеокарт и оперативки, энтузиаст доказал, что для этих ваших ИИ достаточно и 4 МГц
Он создал языковую модель, которая умудряется работать на легендарном 8-битном чипе Z80 (да-да, том самом, что стоял в ZX Spectrum).
Как это вообще возможно:
— Экстремальное сжатие: веса модели квантованы до 2 бит (значения только -2, -1, 0, +1);
— Никаких чисел c плавающей точкой. Вся математика переписана на целочисленную, понятную старому процессору;
— Весь «мозг» вместе с чат-интерфейсом весит смешные 40 КБ и запускается из-под CP/M.
Работает схема так: тренируете модель с комфортом на Python, экспортируете .COM файл, заливаете на ретро-ПК и наслаждаетесь беседой с зеленым экраном. Тест Тьюринга врядли пройдет, но для вау-эффекта этого более чем достаточно
Сдуваем пыль со своих железок
Please open Telegram to view this post
VIEW IN TELEGRAM
Главные новости ИИ и Мл
✔️ Цукерберг купил Manus.
По информации WSJ, сумма сделки превысила $2 млрд, что соответствует оценке, которую стартап рассчитывал получить в ходе нового раунда финансирования. Manus показал феноменальную динамику, выйдя на уровень годовой выручки более $100 млн. всего через 8 месяцев после запуска.
Флагманский продукт Manus — агент общего назначения, способный самостоятельно выполнять многоступенчатые задачи: написание кода, анализ больших данных и маркетинговые исследования.
Критическим условием поглощения стало полное сворачивание операций в Китае, где компания была изначально основана, и исключение любых китайских интересов в структуре собственности. Действующие сервисы и подписки Manus продолжат работать.
wsj.com
✔️ США одобрили поставки оборудования для Samsung и SK Hynix на 2026 год.
Власти США выдали Samsung Electronics и SK Hynix лицензии, разрешающие ввоз оборудования для производства чипов на их заводы в Китае в 2026 году. Это решение обеспечит непрерывность технологических процессов на фоне ужесточения правил экспортного контроля.
Ранее южнокорейские вендоры, наравне с TSMC, обладали статусом «проверенных компаний», который освобождал их от ограничений Вашингтона. Срок действия этой привилегии истекает 31 декабря, после чего начинает действовать система ежегодного лицензирования поставок.
Для Samsung и SK Hynix китайские площадки остаются ключевыми в производстве памяти, цены на которую растут из-за дефицита и высокого спроса со стороны дата-центров для ИИ.
reuters.com
✔️ FAL Ai сделали FLUX.2 Dev Turbo.
FLUX.2 [dev] Turbo — оптимизированная версия модели от Black Forest Labs в формате LoRA, которая сокращает инференс до 8 шагов.
FAL обещает шестикратный прирост скорости по сравнению со стандартной 50-шаговой версией, при этом сохраняя высокую детализацию изображений и точность следования промпту.
Сразу после релиза инструмент возглавил рейтинг Artificial Analysis Image Arena, обойдя по ELO-баллам даже крупные коммерческие закрытые модели. Веса доступны на Hugging Face под некоммерческой лицензией Black Forest.
Fal в сети X
✔️ Tencent релизнула диффузионную языковую модель, которая в 6 раз быстрее классических LLM.
WeDLM 8B Instruct использует диффузионный подход к генерации текста вместо привычного для LLM авторегрессионного метода. Преимущество архитектуры в радикальном приросте производительности. В задачах математического рассуждения WeDLM работает в 3–6 раз быстрее, чем Qwen3-8B с оптимизацией vLLM.
Релиз опровергает стереотип о том, что диффузионные модели не подходят для точных текстовых задач и доказывает их способность превосходить трансформеры в скорости инференса.
Модель доступна на HuggigingFace под максимально свободной лицензией Apache 2.0.
wedlm.github.io
✔️ Алгоритмы YouTube рекомендуют новым пользователям ИИ-слоп.
Компания Kapwing проанализировала выдачу для новых аккаунтов и выяснила, что 21% рекомендаций приходится на слоп, созданный в ИИ исключительно для фарма просмотров. Этот контент представляет собой автоматизированный поток мусорных видео, который рекомендательные системы платформы активно продвигают в топы.
Экономика этого сегмента процветает: лидеры ниши собирают миллиарды просмотров и зарабатывают миллионы долларов на рекламе. Основными потребителями такого контента оказались зрители из Южной Кореи, Пакистана и США.
Ситуация наглядно иллюстрирует проблему «мертвого интернета»: пока подобные видео генерируют высокую вовлеченность - будь то от реальных людей или ботов, платформа продолжает их рекомендовать, создавая финансовый стимул для дальнейшего замусоривания хостинга.
kapwing.com
По информации WSJ, сумма сделки превысила $2 млрд, что соответствует оценке, которую стартап рассчитывал получить в ходе нового раунда финансирования. Manus показал феноменальную динамику, выйдя на уровень годовой выручки более $100 млн. всего через 8 месяцев после запуска.
Флагманский продукт Manus — агент общего назначения, способный самостоятельно выполнять многоступенчатые задачи: написание кода, анализ больших данных и маркетинговые исследования.
Критическим условием поглощения стало полное сворачивание операций в Китае, где компания была изначально основана, и исключение любых китайских интересов в структуре собственности. Действующие сервисы и подписки Manus продолжат работать.
wsj.com
Власти США выдали Samsung Electronics и SK Hynix лицензии, разрешающие ввоз оборудования для производства чипов на их заводы в Китае в 2026 году. Это решение обеспечит непрерывность технологических процессов на фоне ужесточения правил экспортного контроля.
Ранее южнокорейские вендоры, наравне с TSMC, обладали статусом «проверенных компаний», который освобождал их от ограничений Вашингтона. Срок действия этой привилегии истекает 31 декабря, после чего начинает действовать система ежегодного лицензирования поставок.
Для Samsung и SK Hynix китайские площадки остаются ключевыми в производстве памяти, цены на которую растут из-за дефицита и высокого спроса со стороны дата-центров для ИИ.
reuters.com
FLUX.2 [dev] Turbo — оптимизированная версия модели от Black Forest Labs в формате LoRA, которая сокращает инференс до 8 шагов.
FAL обещает шестикратный прирост скорости по сравнению со стандартной 50-шаговой версией, при этом сохраняя высокую детализацию изображений и точность следования промпту.
Сразу после релиза инструмент возглавил рейтинг Artificial Analysis Image Arena, обойдя по ELO-баллам даже крупные коммерческие закрытые модели. Веса доступны на Hugging Face под некоммерческой лицензией Black Forest.
Fal в сети X
WeDLM 8B Instruct использует диффузионный подход к генерации текста вместо привычного для LLM авторегрессионного метода. Преимущество архитектуры в радикальном приросте производительности. В задачах математического рассуждения WeDLM работает в 3–6 раз быстрее, чем Qwen3-8B с оптимизацией vLLM.
Релиз опровергает стереотип о том, что диффузионные модели не подходят для точных текстовых задач и доказывает их способность превосходить трансформеры в скорости инференса.
Модель доступна на HuggigingFace под максимально свободной лицензией Apache 2.0.
wedlm.github.io
Компания Kapwing проанализировала выдачу для новых аккаунтов и выяснила, что 21% рекомендаций приходится на слоп, созданный в ИИ исключительно для фарма просмотров. Этот контент представляет собой автоматизированный поток мусорных видео, который рекомендательные системы платформы активно продвигают в топы.
Экономика этого сегмента процветает: лидеры ниши собирают миллиарды просмотров и зарабатывают миллионы долларов на рекламе. Основными потребителями такого контента оказались зрители из Южной Кореи, Пакистана и США.
Ситуация наглядно иллюстрирует проблему «мертвого интернета»: пока подобные видео генерируют высокую вовлеченность - будь то от реальных людей или ботов, платформа продолжает их рекомендовать, создавая финансовый стимул для дальнейшего замусоривания хостинга.
kapwing.com
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎄🎄 Qwen-Image: обновление как раз к Новому году
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции (с русским пока не очень хорошо)
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции (с русским пока не очень хорошо)
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
⚡️ Рынок ноутбуков может вернуться к эпохе «8 ГБ по умолчанию» - и виноват в этом ИИ.
По данным TrendForce, с DRAM сейчас настолько туго, что производители пересматривают линейки и поднимают цены, чтобы не сжечь склады. В результате в среднеценовом сегменте всё чаще будет встречаться 8 ГБ памяти, а ценовые «качели» усилятся уже к Q2 2026.
Особенно больно ударит апгрейд: в отчёте приводится пример, где переход с 16 ГБ на 32 ГБ LPDDR5X добавляет к цене ноутбука около $550. Эта память впаяна в плату - апгрейд потом невозможен.
Крупные игроки вроде Samsung, SK Hynix и Micron перенаправляют мощности туда, где маржа выше - в серверы для ИИ, а не в потребительские ноутбуки.
При этом память уже занимает 15–20% себестоимости ПК. Когда дорожают DRAM и SSD, тонкая прибыль Lenovo, HP и Dell буквально испаряется, поэтому цены для конечных покупателей будут расти.
Вывод простой:
если нужен ноутбук с 16–32 ГБ - брать заранее, ждать снижения цен в ближайшие годы вряд ли стоит.
Источник: wccftech.com/you-might-soon-see-8gb-laptops-everywhere/
По данным TrendForce, с DRAM сейчас настолько туго, что производители пересматривают линейки и поднимают цены, чтобы не сжечь склады. В результате в среднеценовом сегменте всё чаще будет встречаться 8 ГБ памяти, а ценовые «качели» усилятся уже к Q2 2026.
Особенно больно ударит апгрейд: в отчёте приводится пример, где переход с 16 ГБ на 32 ГБ LPDDR5X добавляет к цене ноутбука около $550. Эта память впаяна в плату - апгрейд потом невозможен.
Крупные игроки вроде Samsung, SK Hynix и Micron перенаправляют мощности туда, где маржа выше - в серверы для ИИ, а не в потребительские ноутбуки.
При этом память уже занимает 15–20% себестоимости ПК. Когда дорожают DRAM и SSD, тонкая прибыль Lenovo, HP и Dell буквально испаряется, поэтому цены для конечных покупателей будут расти.
Вывод простой:
если нужен ноутбук с 16–32 ГБ - брать заранее, ждать снижения цен в ближайшие годы вряд ли стоит.
Источник: wccftech.com/you-might-soon-see-8gb-laptops-everywhere/
Новая neuromorphic-кожа позволяет гуманоидным роботам отдёргивать руку мгновенно, не дожидаясь решения центрального процессора.
Обычно датчики на «коже» робота лишь измеряют давление и отправляют данные в CPU, там программа решает, что делать. Это добавляет задержку, особенно при неожиданных ударах.
В NRE-skin всё иначе: прикосновение кодируется как «нейроноподобные» электрические импульсы, которые уже содержат информацию о силе контакта.
Если давление превышает порог, кожа посылает высоковольтный импульс прямо к моторам и запускает защитный рефлекс - минуя процессор.
Дополнительно система каждые 75–150 секунд посылает небольшой «пульс-проверку»: если сигнал пропадает, робот понимает, что сегмент повреждён, локализует проблему, а магнитные модули позволяют быстро заменить участок.
Это шаг к роботам, которые реагируют быстрее, безопаснее и «инстинктивнее».
Источник: techxplore.com/news/2025-12-robotic-skin-humanoid-robots-pain.html
Please open Telegram to view this post
VIEW IN TELEGRAM
В первый день года команда представила работу, посвящённую одной из самых болезненных проблем современных нейросетей: нестабильности обучения в сложных архитектурах.
И предложили решение: подход под названием mHC (Manifold-Constrained Hyper-Connections).
Смысл в том, что исследователи взяли мощную, но нестабильную архитектуру Hyper-Connections и ввели ограничения на внутренние связи.
1. Проекция на многообразие (manifold)
Вместо того, чтобы оставлять Hyper-Connections свободными, mHC накладывает на них ограничение, они проектируются на особое многообразие (матрицы с особыми свойствами).
Это восстанавливает identity-mapping, благодаря чему сигнал остаётся устойчивым даже через десятки или сотни слоёв.
2. Стабильность и масштабируемость
Благодаря этому ограничению сеть перестаёт «взрывать» или «затухать» сигнал при глубоком обучении, и её можно эффективно использовать в больших моделях без ухудшения качества и без сложных ухищрений.
3. Инфраструктурные оптимизации
Авторы также добавили инженерные улучшения:
- слияние ядер (kernel fusion)
- уменьшение накладных расходов по памяти
- эффекты смешанной точности
Это делает mHC быстрым и эффективным в реальных задачах даже при масштабных тренировках.
Результат впечатляет:
• обучение становится стабильнее на крупных масштабах
• модели лучше масштабируются
• повышается производительность
• снижается потребление памяти
• mHC обгоняет классические Hyper-Connections
Другими словами, DeepSeek показывает, что путь в будущее - не только большие модели, но и архитектуры, которые устойчивы изнутри.
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
https://arxiv.org/abs/2512.24880
Please open Telegram to view this post
VIEW IN TELEGRAM
Интересная история, которая заставляет задуматься об образовании и карьере.
Знакомьтесь - Габриэль Петерссон. Ему всего 23 года, он бросил школу в глухом шведском городке, не учился в ВУЗе, но прямо сейчас работает научным сотрудником в OpenAI, в команде Sora.
Традиционное образование - это путь "снизу вверх". Хочешь заниматься машинным обучением? Сначала выучи линейную алгебру, потом матан, потом тервер. Это долго и зачастую теряется мотивация и понимание, зачем тебе это нужно прямо сейчас.
Масла в котел демотивации подливают компании, которые тоже не очень хотят ждать. Palantir, например, уже нанимает старшеклассников, минуя вузы. И история Габриэля — показательный пример тенденции.
Он не проходил классический путь "школа — бакалавриат — магистратура". Вместо этого он использовал ChatGPT как персонального ментора. И речь не о том, чтобы попросить чат-бот «напиши код за меня». Габриэль использовал метод, который он сам называет «рекурсивным заполнением пробелов».
Его суть том, чтобы идти как бы "сверху вниз". Он берет сложный проект: например, хочет разобраться, как работают модели диффузии. Он просит ChatGPT написать код. Естественно, сначала он ничего не понимает.
И вот тут он начинает задавать вопросы к каждому непонятному модулю. «Что делает этот блок?». Допустим, это блок ResNet. Он спрашивает: «Почему это помогает модели учиться?». И копает глубже. Если всплывает незнакомое понятие - он просит объяснить математическую базу, лежащую в его основе.
Это и есть рекурсия: слой за слоем, пока не заполнятся все пробелы в знаниях. Он не учит математику впрок, он учит ту математику, которая нужна ему прямо сейчас для работы кода.
Для получения визы талантов (O1) он использовал свою репутацию на Stack Overflow и рекомендации, которые просмотрели миллионы людей, как доказательство вклада в индустрию.
Габриэль советует: забудьте про HR. Резюме и дипломы не важны, если вы можете показать результат. Его стратегия — MVP или демо продукта и написать напрямую топ-менеджменту компании с предложением бесплатной работы на неделю. Это снимает риски для нанимателя и дает вам шанс показать себя.
Его главный посыл: если вы готовы активно задавать вопросы и не боитесь выглядеть глупо перед ИИ, изучая основы, вы уже входите в 1% лучших. Потому что большинство людей просто плывут по течению.
@ai_machinelearning_big_data
#AI #ML #Interview #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 IQuest-Coder: Новая open-source модель для Кодинга, которая превосходит Claude Sonnet 4.5 и GPT-5.1 - и это модель всего 40B параметров.
На бенчмарках IQuest-Coder выглядит внушительно:
SWE-Bench Verified — 81.4%
BigCodeBench — 49.9%
LiveCodeBench v6 — 81.1%
Проект поддерживает хедж-фонд UBIQUANT, который уже много лет активно развивает ИИ
(команды AILab, DataLab, Waterdrop Lab).
Контекст до 128K токенов.
https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Loop-Instruct
На бенчмарках IQuest-Coder выглядит внушительно:
SWE-Bench Verified — 81.4%
BigCodeBench — 49.9%
LiveCodeBench v6 — 81.1%
Проект поддерживает хедж-фонд UBIQUANT, который уже много лет активно развивает ИИ
(команды AILab, DataLab, Waterdrop Lab).
Контекст до 128K токенов.
https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Loop-Instruct
🎥 КК ИИ-слоп теперь влияет на политические решения
В Польше заявляют, что в TikTok завирусилист сгенерированные ИИ ролики, убеждающие молодёжь поддержать выход страны из ЕС, так называемый “Polexit”.
Польское правительство просит ЕС открыть расследование против TikTok по линии Digital Services Act.
По их словам, ролики выглядят как организованная кампания.
Особенность таких видео в том, что:
• ИИ создаёт реалистичных “говорящих людей”
• сценарии можно быстро менять
• таргетинг идёт точечно, например, на аудиторию 15–25 лет
• масштабирование происходит автоматически
То есть за короткое время можно запустить сотни убедительных роликов, создающих ощущение «органичного мнения общества», хотя за ними может стоять один оператор.
Вопросы, которые теперь обсуждают в ЕС:
• как отличать реальных людей от ИИ-персонажей
• кто несёт ответственность за массовую манипуляцию
• как соцсети должны реагировать на такие кампании
ИИ меняет не только технологии, он начинает менять и общественные дискуссии.
notesfrompoland.com/2025/12/31/poland-calls-for-eu-action-against-ai-generated-tiktok-videos-calling-for-polexit/
В Польше заявляют, что в TikTok завирусилист сгенерированные ИИ ролики, убеждающие молодёжь поддержать выход страны из ЕС, так называемый “Polexit”.
Польское правительство просит ЕС открыть расследование против TikTok по линии Digital Services Act.
По их словам, ролики выглядят как организованная кампания.
Особенность таких видео в том, что:
• ИИ создаёт реалистичных “говорящих людей”
• сценарии можно быстро менять
• таргетинг идёт точечно, например, на аудиторию 15–25 лет
• масштабирование происходит автоматически
То есть за короткое время можно запустить сотни убедительных роликов, создающих ощущение «органичного мнения общества», хотя за ними может стоять один оператор.
Вопросы, которые теперь обсуждают в ЕС:
• как отличать реальных людей от ИИ-персонажей
• кто несёт ответственность за массовую манипуляцию
• как соцсети должны реагировать на такие кампании
ИИ меняет не только технологии, он начинает менять и общественные дискуссии.
notesfrompoland.com/2025/12/31/poland-calls-for-eu-action-against-ai-generated-tiktok-videos-calling-for-polexit/
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Илон Маск: стоит ли детям идти в университет в эпоху ИИ
Маск говорит, что даже его собственные сыновья понимают: их навыки могут стать ненужными, но они всё равно хотят пройти через сам опыт обучения и студенческой жизни.
> Если вы хотите поступить по социальным причинам - быть среди ровесников в учебной среде - это вполне разумно.
> Но будут ли эти навыки нужны в будущем? Скорее всего, нет.
> Мы движемся к обществу без работы. ИИ и робототехника -нас ждет самое радикальное изменение в истории.
> Если что-то действительно то что вам интересно. Изучайте широкий спектр курсов. Но идти в колледж не обязательно.
Маск говорит, что даже его собственные сыновья понимают: их навыки могут стать ненужными, но они всё равно хотят пройти через сам опыт обучения и студенческой жизни.
⚡️ Wavelet Matrix - структура данных, которая делает сложные запросы быстрыми
Wavelet Matrix позволяет хранить последовательности так,
чтобы работать с ними молниеносно и компактно.
🔥 Что умеет библиотека:
- rank - сколько раз элемент встречается до позиции
- select - где находится k-е вхождение элемента
- quantile - k-й по величине элемент на отрезке
- top-k - самые частые элементы на диапазоне
И всё это — за логарифмическое время и с экономией памяти.
Чем полезен
- работает быстрее, чем наивные структуры
- меньше памяти, чем обычные массивы
- подходит для поиска, индексирования, сжатия, аналитики
Wavelet Matrix - это пример того,
как «умные» структуры данных дают реальные ускорения,
а не просто красивая теория.
Если интересуешься алгоритмами -
этот репозиторий точно стоит сохранить.
Репозиторий: https://github.com/math-hiyoko/wavelet-matrix
@pythonl
Wavelet Matrix позволяет хранить последовательности так,
чтобы работать с ними молниеносно и компактно.
🔥 Что умеет библиотека:
- rank - сколько раз элемент встречается до позиции
- select - где находится k-е вхождение элемента
- quantile - k-й по величине элемент на отрезке
- top-k - самые частые элементы на диапазоне
И всё это — за логарифмическое время и с экономией памяти.
Чем полезен
- работает быстрее, чем наивные структуры
- меньше памяти, чем обычные массивы
- подходит для поиска, индексирования, сжатия, аналитики
Wavelet Matrix - это пример того,
как «умные» структуры данных дают реальные ускорения,
а не просто красивая теория.
Если интересуешься алгоритмами -
этот репозиторий точно стоит сохранить.
Репозиторий: https://github.com/math-hiyoko/wavelet-matrix
@pythonl
🧮 CoolCalculator: Мини-язык программирования для вычислений
CoolCalculator — это консольный калькулятор, который поддерживает пользовательские переменные и функции, рекурсию и локальные области видимости. Он предназначен для изучения парсинга и оценки выражений, а не только для численных вычислений.
🚀Основные моменты:
- Поддержка пользовательских переменных и функций
- Рекурсивные вызовы и перегрузка функций
- Многострочный ввод и последовательное выполнение
- Автоматическое создание несуществующих переменных
- Удобный синтаксис для работы с выражениями
📌 GitHub: https://github.com/YaroslavPryatkin/CoolCalculator
CoolCalculator — это консольный калькулятор, который поддерживает пользовательские переменные и функции, рекурсию и локальные области видимости. Он предназначен для изучения парсинга и оценки выражений, а не только для численных вычислений.
🚀Основные моменты:
- Поддержка пользовательских переменных и функций
- Рекурсивные вызовы и перегрузка функций
- Многострочный ввод и последовательное выполнение
- Автоматическое создание несуществующих переменных
- Удобный синтаксис для работы с выражениями
📌 GitHub: https://github.com/YaroslavPryatkin/CoolCalculator
The Information пишет, что в 2026 году OpenAI может купить Pinterest, и акции Pinterest сразу подросли.
ChatGPT постепенно превращается не просто в ассистента, а в платформу поиска + рекомендаций со встроенной реальной рекламой.
Pinterest ценен для OPenAI по двум ключевым причинам:
1️⃣ Люди в Pinterest не просто смотрят картинки, они сохраняют и возвращаются к ним.
Это сильные сигналы того, что человек реально хочет купить или попробовать.
Для ИИ это ценная информация:
рекомендации товаров, понимание стиля, который нравится пользователю.
И главное база ~600 млн активных пользователей в месяц.
2️⃣ Готовая коммерческая инфраструктура
Если ChatGPT хочет показывать «товары, которые можно купить», ему нужны:
- каталоги
- цены
- доставка
- рекламные бюджеты брендов
Pinterest уже имеет рекламный бизнес и партнёрства с мерчантами.
Можно представить цикл продукта:
пользователь описывает идею продукта, который ему интересно или образ в ChatGPT, модель генерирует варианты и подтягивает результаты в стиле Pinterest, уже связанные с магазинами.
theinformation .com/articles/sutskevers-fate-openais-next-deal-hit-robot-13-predictions-2026
ChatGPT постепенно превращается не просто в ассистента, а в платформу поиска + рекомендаций со встроенной реальной рекламой.
Pinterest ценен для OPenAI по двум ключевым причинам:
1️⃣ Люди в Pinterest не просто смотрят картинки, они сохраняют и возвращаются к ним.
Это сильные сигналы того, что человек реально хочет купить или попробовать.
Для ИИ это ценная информация:
рекомендации товаров, понимание стиля, который нравится пользователю.
И главное база ~600 млн активных пользователей в месяц.
2️⃣ Готовая коммерческая инфраструктура
Если ChatGPT хочет показывать «товары, которые можно купить», ему нужны:
- каталоги
- цены
- доставка
- рекламные бюджеты брендов
Pinterest уже имеет рекламный бизнес и партнёрства с мерчантами.
Можно представить цикл продукта:
пользователь описывает идею продукта, который ему интересно или образ в ChatGPT, модель генерирует варианты и подтягивает результаты в стиле Pinterest, уже связанные с магазинами.
theinformation .com/articles/sutskevers-fate-openais-next-deal-hit-robot-13-predictions-2026