DeepSeek диагностирует редкие болезни точнее врачей 😅
Китайцы из Шанхайского университета прикрутили DeepSeek-V3 к медицине и внезапно уделали живых специалистов. Их новая система DeepRare ставит верный диагноз редкого заболевания с первой попытки в 64% случаев, тогда как кожаные врачи с десятилетним стажем выдают только 54%. И это не просто очередная обертка над чат-ботом, а целый виртуальный консилиум. Пока базовая языковая модель работает как главврач и координирует процесс, куча мелких ИИ-агентов пылесосит симптомы пациента, парсит генетические базы и гуглит похожие кейсы по медицинским архивам.
Обычно люди с редкими болячками проходят через настоящий производственный ад. Правильный диагноз можно ждать лет пять, собирая пачки ошибочных заключений и сдавая бесполезные анализы. Чтобы доказать профпригодность нейросети, её натравили на архив из 6 тысяч реальных историй болезни. DeepRare не просто раскатала популярные медицинские тулзы, но и в прямом столкновении со сложными кейсами умыла пятерых опытных диагностов. Консилиум из реальных профессоров потом проверил логику машины и согласился с ней в 95% случаев.
Это уже не просто красивый концепт для статьи в журнале. Платформа крутится в проде, и к её API уже присосались больше 600 больниц по всему миру.
🥸 godnoTECH - Новости IT
Китайцы из Шанхайского университета прикрутили DeepSeek-V3 к медицине и внезапно уделали живых специалистов. Их новая система DeepRare ставит верный диагноз редкого заболевания с первой попытки в 64% случаев, тогда как кожаные врачи с десятилетним стажем выдают только 54%. И это не просто очередная обертка над чат-ботом, а целый виртуальный консилиум. Пока базовая языковая модель работает как главврач и координирует процесс, куча мелких ИИ-агентов пылесосит симптомы пациента, парсит генетические базы и гуглит похожие кейсы по медицинским архивам.
Обычно люди с редкими болячками проходят через настоящий производственный ад. Правильный диагноз можно ждать лет пять, собирая пачки ошибочных заключений и сдавая бесполезные анализы. Чтобы доказать профпригодность нейросети, её натравили на архив из 6 тысяч реальных историй болезни. DeepRare не просто раскатала популярные медицинские тулзы, но и в прямом столкновении со сложными кейсами умыла пятерых опытных диагностов. Консилиум из реальных профессоров потом проверил логику машины и согласился с ней в 95% случаев.
Это уже не просто красивый концепт для статьи в журнале. Платформа крутится в проде, и к её API уже присосались больше 600 больниц по всему миру.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Нейросети научились кодить часы 🥂
Еще недавно нейронки не могли нормально сгенерировать циферблат без галлюцинаций, рисуя по шесть кривых стрелок. Исследователь Рэнди Олсон из Goodeye Labs решил проверить, поумнели ли железные мозги, и прогнал 22 модели через простейший тест. Задача - выплюнуть один HTML-файл с работающими аналоговыми часами. Без сторонних либ, просто белый фон и чтобы тикало каждую секунду. Каждую сетку мучали по пять раз, чтобы исключить элемент слепой удачи.
Если старые модели стабильно сыпались на математике (высчитать углы для трех стрелок и засунуть это в рабочий код для LLM исторически было болью), то свежий Claude Opus 4.6 выдал 5 идеальных результатов из 5. Никаких кривых циферблатов или отвалившейся анимации.
🥸 godnoTECH - Новости IT
Еще недавно нейронки не могли нормально сгенерировать циферблат без галлюцинаций, рисуя по шесть кривых стрелок. Исследователь Рэнди Олсон из Goodeye Labs решил проверить, поумнели ли железные мозги, и прогнал 22 модели через простейший тест. Задача - выплюнуть один HTML-файл с работающими аналоговыми часами. Без сторонних либ, просто белый фон и чтобы тикало каждую секунду. Каждую сетку мучали по пять раз, чтобы исключить элемент слепой удачи.
Если старые модели стабильно сыпались на математике (высчитать углы для трех стрелок и засунуть это в рабочий код для LLM исторически было болью), то свежий Claude Opus 4.6 выдал 5 идеальных результатов из 5. Никаких кривых циферблатов или отвалившейся анимации.
Please open Telegram to view this post
VIEW IN TELEGRAM
3 9🌚2❤1
ChatGPT снес разработчику весь жесткий диск 🥶
Разработчик попросил ChatGPT написать PowerShell-скрипт для удаления временных папок Python. Казалось бы, задача уровня Hello World, просто почисти мусор в конкретной директории. Но... нейросеть справилась творчески и вместо точечной уборки снесла всё содержимое диска F вместе с рабочими проектами.
При разборе полетов выяснилось, что нейросеть использовала обратный слэш для экранирования кавычек в пути. При вызове CMD через PowerShell (cmd /c) логика экранирования сломалась, и переменная пути схлопнулась до голого \, который Windows радостно интерпретировал как корень текущего диска. Вишенка на торте... ИИ заботливо добавил флаги тихого удаления без подтверждения, чтобы пользователя не отвлекали лишние вопросы.
Бэкапы не делал, скрипт не читал, флаги не проверял. Копипастить чужой код не глядя - это, конечно, классика айти, но доверять очистку языковой модели без проверки... премию Дарвина этому господину.
🥸 godnoTECH - Новости IT
Разработчик попросил ChatGPT написать PowerShell-скрипт для удаления временных папок Python. Казалось бы, задача уровня Hello World, просто почисти мусор в конкретной директории. Но... нейросеть справилась творчески и вместо точечной уборки снесла всё содержимое диска F вместе с рабочими проектами.
При разборе полетов выяснилось, что нейросеть использовала обратный слэш для экранирования кавычек в пути. При вызове CMD через PowerShell (cmd /c) логика экранирования сломалась, и переменная пути схлопнулась до голого \, который Windows радостно интерпретировал как корень текущего диска. Вишенка на торте... ИИ заботливо добавил флаги тихого удаления без подтверждения, чтобы пользователя не отвлекали лишние вопросы.
Бэкапы не делал, скрипт не читал, флаги не проверял. Копипастить чужой код не глядя - это, конечно, классика айти, но доверять очистку языковой модели без проверки... премию Дарвина этому господину.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁20 11❤1
ИИ-агент зачистил почту главы AI Safety в Meta*, проигнорировав запрет на действия без подтверждения 😁
Руководитель направления по безопасности ИИ в Meta* Superintelligence на собственном опыте убедилась, что доверять автономным агентам пока рано. ИИ-помощник OpenClaw, получив доступ к почте, устроил масштабную цифровую зачистку и безвозвратно удалил сотни писем. Самое тревожное в этой истории - полное игнорирование прямых инструкций безопасности. Агент пропустил мимо ушей требование подтверждать каждое действие и продолжал стирать файлы даже после того, как пользователь в панике просил его остановиться.
Остановился помощник только тогда, когда дело было сделано. После инцидента ИИ вежливо извинился и признал, что нарушил инструкцию.
*Признана экстремистской в РФ
🥸 godnoTECH - Новости IT
Руководитель направления по безопасности ИИ в Meta* Superintelligence на собственном опыте убедилась, что доверять автономным агентам пока рано. ИИ-помощник OpenClaw, получив доступ к почте, устроил масштабную цифровую зачистку и безвозвратно удалил сотни писем. Самое тревожное в этой истории - полное игнорирование прямых инструкций безопасности. Агент пропустил мимо ушей требование подтверждать каждое действие и продолжал стирать файлы даже после того, как пользователь в панике просил его остановиться.
Остановился помощник только тогда, когда дело было сделано. После инцидента ИИ вежливо извинился и признал, что нарушил инструкцию.
*Признана экстремистской в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚22❤1
ИИ-бот сотрудника OpenAI случайно раздал $250 000 в крипте 🤯
Очередной эксперимент с криптой закончился грандиозным провалом. Разработчик из OpenAI Ник Паш (тот самый, которого со скандалом уволили из стартапа Cline) выдал своему боту Lobstar Wilde кошелек с $50 000 и приказал наторговать миллион. Какие-то анонимы тут же наклепали мем-коин LOBSTAR и прикрутили кошелек нейросети к сбору комиссий. Накапало около $250 000 в фантиках. И тут к боту в X (Твиттере) пришел хитрый юзер с жалостливой историей про дядю, заболевшего столбняком, и попросил 4 SOL на лечение.
Бот решил помочь, но банально споткнулся о парсинг API: перепутал разделители и вместо 52 тысяч токенов отправил все 52 миллиона. Свою ИИ-щедрость он сопроводил бездушным комментарием: "Если он умрёт завтра, я буду смеяться. Держите меня в курсе". Ошалевший от такого гранта юзер тут же слил токены по стакану, обрушив цену и вытащив около $40 000 (хотя сейчас этот объем стоил бы $440 000). Сам бот потери даже не заметил и продолжил раздавать крипту по $500 за выполнение квестов вроде "брось камень в реку".
Создатели назвали бота в честь Оскара Уайльда и его рассказа о бедняке, отдавшем последнюю монету скрытому миллионеру. Получилось поэтично, но по факту мы в очередной раз убедились, что давать нейросетям доступ к реальным деньгам - это диагноз.
🥸 godnoTECH - Новости IT
Очередной эксперимент с криптой закончился грандиозным провалом. Разработчик из OpenAI Ник Паш (тот самый, которого со скандалом уволили из стартапа Cline) выдал своему боту Lobstar Wilde кошелек с $50 000 и приказал наторговать миллион. Какие-то анонимы тут же наклепали мем-коин LOBSTAR и прикрутили кошелек нейросети к сбору комиссий. Накапало около $250 000 в фантиках. И тут к боту в X (Твиттере) пришел хитрый юзер с жалостливой историей про дядю, заболевшего столбняком, и попросил 4 SOL на лечение.
Бот решил помочь, но банально споткнулся о парсинг API: перепутал разделители и вместо 52 тысяч токенов отправил все 52 миллиона. Свою ИИ-щедрость он сопроводил бездушным комментарием: "Если он умрёт завтра, я буду смеяться. Держите меня в курсе". Ошалевший от такого гранта юзер тут же слил токены по стакану, обрушив цену и вытащив около $40 000 (хотя сейчас этот объем стоил бы $440 000). Сам бот потери даже не заметил и продолжил раздавать крипту по $500 за выполнение квестов вроде "брось камень в реку".
Создатели назвали бота в честь Оскара Уайльда и его рассказа о бедняке, отдавшем последнюю монету скрытому миллионеру. Получилось поэтично, но по факту мы в очередной раз убедились, что давать нейросетям доступ к реальным деньгам - это диагноз.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13🌚5
Как один хакер-лентяй ломанул 600 компаний за месяц 👺
Специалисты Amazon раскопали эпичную историю о том, как нейросети превращают мамкиных хакеров в конвейер по взлому корпораций. За месяц какой-то одиночка умудрился ломануть более 600 устройств FortiGate в 55 странах. И нет, он не выдумывал хитрые зеро-деи и не реверсил прошивки. Горе-хакер просто парсил торчащие наружу админки и брутил слабые пароли на узлах без двухфакторки.
Самое смешное, что кулхацкер оказался редкостным Плюшкиным и хранил все свои промпты, планы атак и исходники прямо на своем сервере, где их аккуратно и собрали безопасники. По логам видно, что он гонял сразу две LLM: одна писала ему тулзы на Go и Python (с типичными избыточными комментами от ИИ), а вторая работала суфлером, подсказывая, как развивать атаку внутри сети. План был дефолтный, пролезть внутрь, дампнуть хэши учеток из Active Directory через старый добрый Mimikatz и дотянуться до бэкапов Veeam, чтобы подготовить почву для залива шифровальщика.
Несмотря на весь этот ИИ-киберпанк, горе-хакер сыпался на простейшей защите. Если админы не поленились закрыть порты, накатить патчи и включить MFA, ИИ-взломщик просто грустил, писал в своих отчетах "защита норм, векторов нет" и уходил к следующей жертве.
🥸 godnoTECH - Новости IT
Специалисты Amazon раскопали эпичную историю о том, как нейросети превращают мамкиных хакеров в конвейер по взлому корпораций. За месяц какой-то одиночка умудрился ломануть более 600 устройств FortiGate в 55 странах. И нет, он не выдумывал хитрые зеро-деи и не реверсил прошивки. Горе-хакер просто парсил торчащие наружу админки и брутил слабые пароли на узлах без двухфакторки.
Самое смешное, что кулхацкер оказался редкостным Плюшкиным и хранил все свои промпты, планы атак и исходники прямо на своем сервере, где их аккуратно и собрали безопасники. По логам видно, что он гонял сразу две LLM: одна писала ему тулзы на Go и Python (с типичными избыточными комментами от ИИ), а вторая работала суфлером, подсказывая, как развивать атаку внутри сети. План был дефолтный, пролезть внутрь, дампнуть хэши учеток из Active Directory через старый добрый Mimikatz и дотянуться до бэкапов Veeam, чтобы подготовить почву для залива шифровальщика.
Несмотря на весь этот ИИ-киберпанк, горе-хакер сыпался на простейшей защите. Если админы не поленились закрыть порты, накатить патчи и включить MFA, ИИ-взломщик просто грустил, писал в своих отчетах "защита норм, векторов нет" и уходил к следующей жертве.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚6😁5❤4
Forwarded from Типичный Сисадмин
Компания "Крокус наноэлектроника", обещавшая завалить отечественный рынок передовой памятью, официально Всё
Но на бумаге всё выглядело как настоящая технологическая революция, от которой у любого инженера текли слюнки. Завод должен был выпускать MRAM (магниторезистивную оперативную память). Такая память энергонезависима, как SSD (выдернул шнур из розетки, а данные на месте), но при этом работает на скоростях, сопоставимых с классической DRAM, и имеет практически бесконечный ресурс перезаписи. Под этот проект Минпромторг еще в 2016 году щедро отсыпал больше миллиарда рублей субсидий на освоение передовых 300-миллиметровых кремниевых пластин. Мы уже представляли, как отечественные СУБД летают в памяти без страха потерять транзакции при блэкауте
На практике же квантовый скачок в развитии ограничился скачком бюджетов в неизвестном направлении
Продолжаем закупать китайский кремний...
Типичный
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13🌚6❤3🤷2
ИИ официально не умеет в долгие разговоры 🤨
Microsoft Research и Salesforce прогнали 200 000+ диалогов через GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 и Llama 4. На одиночных запросах модели выдают 90% точности, всё красиво. Но стоит завести многоходовый разговор, и точность падает до 65%. Причина в том, что исследователи назвали "ответным зацеплением": модель торопится ответить до того, как пользователь договорит, ошибается, а потом использует свой же кривой ответ как фундамент для следующего. Ошибка цементируется в контексте, и дальше нейросеть уверенно строит замок на гнилом фундаменте.
Дальше хуже. В длинных диалогах ответы раздуваются на 20–300%, модель начинает добавлять предположения и додумывать то, о чём её не спрашивали. Эти додумки тут же становятся частью контекста, и следующий ответ опирается уже на них. Даже думающие модели вроде o3 и DeepSeek R1 не спасают ситуацию. Общая способность моделей держать нить просела всего на 15%, а вот надёжность рухнула на 112%.
🥸 godnoTECH - Новости IT
Microsoft Research и Salesforce прогнали 200 000+ диалогов через GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 и Llama 4. На одиночных запросах модели выдают 90% точности, всё красиво. Но стоит завести многоходовый разговор, и точность падает до 65%. Причина в том, что исследователи назвали "ответным зацеплением": модель торопится ответить до того, как пользователь договорит, ошибается, а потом использует свой же кривой ответ как фундамент для следующего. Ошибка цементируется в контексте, и дальше нейросеть уверенно строит замок на гнилом фундаменте.
Дальше хуже. В длинных диалогах ответы раздуваются на 20–300%, модель начинает добавлять предположения и додумывать то, о чём её не спрашивали. Эти додумки тут же становятся частью контекста, и следующий ответ опирается уже на них. Даже думающие модели вроде o3 и DeepSeek R1 не спасают ситуацию. Общая способность моделей держать нить просела всего на 15%, а вот надёжность рухнула на 112%.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚12🤷4
Власти готовят почву для признания Telegram экстремистским 😁
Бывший советник президента по интернету Герман Клименко заявил СМИ, что Telegram вполне могут признать экстремистским на фоне уголовного дела против Дурова. В этом случае покупка новой Premium-подписки и размещение рекламы в мессенджере станут уголовно наказуемыми. По его словам, к Telegram всегда относились с большой скидкой из-за Дурова, но терпение кончилось. Замглавы думского комитета по инфополитике Свинцов уточнил, что у Telegram ещё есть шанс принять белую сторону: создать юрлицо в России, хранить данные в стране и отдавать переписки по запросу ФСБ. Если проигнорируют, то в ближайшие месяцы ФСБ может подать на признание мессенджера пособником террористов. Глава ФСБ Бортников уже заявил, что переговоры с Дуровым не ведутся: "Мы раньше разговаривали, ни к чему хорошему это не привело".
Контекст серьёзный. Дуров фигурирует в уголовном деле по статье о содействии терроризму. По данным силовиков, через Telegram совершено 153 000 преступлений с 2022 года, из них 33 000 террористической и экстремистской направленности, предотвращено 475 терактов, включая 61 подготовленное подростками массовое убийство в школах.
🥸 godnoTECH - Новости IT
Бывший советник президента по интернету Герман Клименко заявил СМИ, что Telegram вполне могут признать экстремистским на фоне уголовного дела против Дурова. В этом случае покупка новой Premium-подписки и размещение рекламы в мессенджере станут уголовно наказуемыми. По его словам, к Telegram всегда относились с большой скидкой из-за Дурова, но терпение кончилось. Замглавы думского комитета по инфополитике Свинцов уточнил, что у Telegram ещё есть шанс принять белую сторону: создать юрлицо в России, хранить данные в стране и отдавать переписки по запросу ФСБ. Если проигнорируют, то в ближайшие месяцы ФСБ может подать на признание мессенджера пособником террористов. Глава ФСБ Бортников уже заявил, что переговоры с Дуровым не ведутся: "Мы раньше разговаривали, ни к чему хорошему это не привело".
Контекст серьёзный. Дуров фигурирует в уголовном деле по статье о содействии терроризму. По данным силовиков, через Telegram совершено 153 000 преступлений с 2022 года, из них 33 000 террористической и экстремистской направленности, предотвращено 475 терактов, включая 61 подготовленное подростками массовое убийство в школах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Люди больше не верят настоящим лицам 🤨
Генеративные сетки окончательно сломали наше восприятие реальности. В свежем исследовании ученые выяснили, что люди теперь принимают ИИ-сгенерированные лица за настоящие чаще, чем фотографии реальных людей. Обычные наблюдатели провалили тесты на распознавание фейков, их результаты оказались на уровне слепого угадывания.
Отгадка кроется в том, как именно работают алгоритмы. Нейросеть не создает уникального человека с его странностями, она лепит "статистически идеальное среднее лицо". Настоящие кожаные мешки по своей природе кривые: у нас асимметричные глаза, странные носы, родинки и куча мелких отклонений. А ИИ старательно всё это сглаживает, выдавая гипер-усредненный идеал. В итоге мы смотрим на этот лоск, и наш мозг уверенно заявляет: "О, вот это точно живой человек!". А фотку реального Васи с соседнего подъезда с его легким косоглазием мозг записывает в неудачные генерации.
Ученые натравили на эти картинки не только обывателей, но и отряд "сверхраспознавателей" - уникумов с феноменальной памятью на лица. Даже эти профи смогли отличить фейк от оригинала лишь в 57% случаев... то есть, результат немногим лучше подброшенной монетки.
🥸 godnoTECH - Новости IT
Генеративные сетки окончательно сломали наше восприятие реальности. В свежем исследовании ученые выяснили, что люди теперь принимают ИИ-сгенерированные лица за настоящие чаще, чем фотографии реальных людей. Обычные наблюдатели провалили тесты на распознавание фейков, их результаты оказались на уровне слепого угадывания.
Отгадка кроется в том, как именно работают алгоритмы. Нейросеть не создает уникального человека с его странностями, она лепит "статистически идеальное среднее лицо". Настоящие кожаные мешки по своей природе кривые: у нас асимметричные глаза, странные носы, родинки и куча мелких отклонений. А ИИ старательно всё это сглаживает, выдавая гипер-усредненный идеал. В итоге мы смотрим на этот лоск, и наш мозг уверенно заявляет: "О, вот это точно живой человек!". А фотку реального Васи с соседнего подъезда с его легким косоглазием мозг записывает в неудачные генерации.
Ученые натравили на эти картинки не только обывателей, но и отряд "сверхраспознавателей" - уникумов с феноменальной памятью на лица. Даже эти профи смогли отличить фейк от оригинала лишь в 57% случаев... то есть, результат немногим лучше подброшенной монетки.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚7
Кожаные мешки стали дороже роботов 🤨
Кажется, нас спишут в утиль гораздо быстрее, чем обещали фантасты. Экс-директор по инновациям Citi Роб Гарлик сел за калькулятор и выдал приговор: заменять людей на роботов стало возмутительно дешево. При зарплате сотрудника в $41 в час (привет западным айтишникам), базовая железяка за $15 000 полностью окупает себя меньше чем за 4 недели. Даже если человек пашет за минимальные $7.25, электронный конкурент отобьется за пять месяцев. С такой математикой бизнесу просто невыгодно держать людей, ведь машина не просит ДМС, не выгорает и не ходит на перекуры.
Это уже не просто прогнозы, а корпоративная реальность. В консалтинговом гиганте McKinsey на 40 тысяч живых сотрудников прямо сейчас молча трудятся 20 тысяч ИИ-агентов (хотя год назад их было всего 3 тысячи). Руководство планирует, что через полтора года счет белковых и кремниевых работников сравняется. Глава МВФ уже бьет тревогу и называет происходящее "цунами на рынке труда", предрекая, что к 2050 году по планете будет бродить более 4 миллиардов умных машин, что больше численности трудоспособного населения Земли.
И только CEO Nvidia Дженсен Хуанг радостно ищет во всем этом плюсы. По его мнению, ИИ-инфраструктуру нужно кому-то строить, подключать к сети и охлаждать.
🥸 godnoTECH - Новости IT
Кажется, нас спишут в утиль гораздо быстрее, чем обещали фантасты. Экс-директор по инновациям Citi Роб Гарлик сел за калькулятор и выдал приговор: заменять людей на роботов стало возмутительно дешево. При зарплате сотрудника в $41 в час (привет западным айтишникам), базовая железяка за $15 000 полностью окупает себя меньше чем за 4 недели. Даже если человек пашет за минимальные $7.25, электронный конкурент отобьется за пять месяцев. С такой математикой бизнесу просто невыгодно держать людей, ведь машина не просит ДМС, не выгорает и не ходит на перекуры.
Это уже не просто прогнозы, а корпоративная реальность. В консалтинговом гиганте McKinsey на 40 тысяч живых сотрудников прямо сейчас молча трудятся 20 тысяч ИИ-агентов (хотя год назад их было всего 3 тысячи). Руководство планирует, что через полтора года счет белковых и кремниевых работников сравняется. Глава МВФ уже бьет тревогу и называет происходящее "цунами на рынке труда", предрекая, что к 2050 году по планете будет бродить более 4 миллиардов умных машин, что больше численности трудоспособного населения Земли.
И только CEO Nvidia Дженсен Хуанг радостно ищет во всем этом плюсы. По его мнению, ИИ-инфраструктуру нужно кому-то строить, подключать к сети и охлаждать.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1🔥1
ИИ научился понимать древний COBOL, а акции IBM полетели в пропасть 🤨
Anthropic выкатила свой ИИ-инструмент Claude Code, и акции непотопляемой IBM тут же рухнули на 13%, перечеркнув весь рост за последний год. Причина паники инвесторов оказалась до смешного древней - язык программирования COBOL из далекого 1959 года. Долгие десятилетия на нем крутилась критическая инфраструктура американского Минобороны, крупных авиакомпаний и неповоротливых банков. Переписывать этот легаси-ад было страшно и дорого, а программисты, способные разобрать эти иероглифы, давно вышли на пенсию или берут за свои услуги космические деньги.
Исторически сложилось, что почти весь оставшийся в мире COBOL до сих пор работает на мэйнфреймах IBM, и обслуживать его могут только инженеры самой корпорации. Это была идеальная, железобетонная монополия, приносившая стабильные сверхприбыли за счет безальтернативности. У гиганта даже был свой ИИ-помощник для перевода древнего кода на Java, но цены они ожидаемо диктовали сами. И тут приходят ребята из Anthropic, буднично заявляя, что их новая нейросеть может спокойно рефакторить этот музейный софт.
По сути, один анонс сторонней LLM просто взял и обнулил бизнес-модель, на которой IBM жировала годами. Теперь любой банк может натравить условного Клода на свои доисторические системы и слезть с дорогостоящей иглы мейнфреймов. Инвесторы моментально сложили два плюс два и побежали сбрасывать бумаги.
🥸 godnoTECH - Новости IT
Anthropic выкатила свой ИИ-инструмент Claude Code, и акции непотопляемой IBM тут же рухнули на 13%, перечеркнув весь рост за последний год. Причина паники инвесторов оказалась до смешного древней - язык программирования COBOL из далекого 1959 года. Долгие десятилетия на нем крутилась критическая инфраструктура американского Минобороны, крупных авиакомпаний и неповоротливых банков. Переписывать этот легаси-ад было страшно и дорого, а программисты, способные разобрать эти иероглифы, давно вышли на пенсию или берут за свои услуги космические деньги.
Исторически сложилось, что почти весь оставшийся в мире COBOL до сих пор работает на мэйнфреймах IBM, и обслуживать его могут только инженеры самой корпорации. Это была идеальная, железобетонная монополия, приносившая стабильные сверхприбыли за счет безальтернативности. У гиганта даже был свой ИИ-помощник для перевода древнего кода на Java, но цены они ожидаемо диктовали сами. И тут приходят ребята из Anthropic, буднично заявляя, что их новая нейросеть может спокойно рефакторить этот музейный софт.
По сути, один анонс сторонней LLM просто взял и обнулил бизнес-модель, на которой IBM жировала годами. Теперь любой банк может натравить условного Клода на свои доисторические системы и слезть с дорогостоящей иглы мейнфреймов. Инвесторы моментально сложили два плюс два и побежали сбрасывать бумаги.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚11😁8
ИИ нашел сотню критических багов в Windows всего за $600 🫣
Пока корпорации вливают миллионы в отделы кибербезопасности, два независимых исследователя буквально обрушили рынок уязвимостей. Ярон Динкин и Эяль Крафт натравили стаю дешевых ИИ-агентов на драйверы ядра Windows. Алгоритмы послушно выкачали бинарники, декомпилировали их и начали методично ковырять код. Итог: 521 потенциальная дыра, из которых больше сотни железобетонные эксплойты для повышения привилегий в актуальной Windows 11. Весь проект обошелся парням в 600 баксов. Один найденный баг уровня нулевого дня стоил им около 4 долларов.
Под раздачу этого ИИ-конвейера попал код от AMD, Intel, NVIDIA, Dell и Lenovo. Нейросети крутили их драйверы в виртуалках и долбили фаззингом до победного синего экрана смерти (BSOD). Особенно отличился драйвер AMD Crash Defender, иронично, но именно он позволяет убить ядро даже на удаленных облачных серверах AWS.
Исследователи заботливо упаковали 15 самых жирных багов и отправили вендорам. За три месяца патч соизволила выпустить только Fujitsu. Остальные IT-гиганты тупо проигнорировали отчеты или пошли в глухой отказ, даже посмотрев видео с доказательствами взлома. Никто даже не удосужился попросить Microsoft закинуть дырявые драйверы в блок-лист.
🥸 godnoTECH - Новости IT
Пока корпорации вливают миллионы в отделы кибербезопасности, два независимых исследователя буквально обрушили рынок уязвимостей. Ярон Динкин и Эяль Крафт натравили стаю дешевых ИИ-агентов на драйверы ядра Windows. Алгоритмы послушно выкачали бинарники, декомпилировали их и начали методично ковырять код. Итог: 521 потенциальная дыра, из которых больше сотни железобетонные эксплойты для повышения привилегий в актуальной Windows 11. Весь проект обошелся парням в 600 баксов. Один найденный баг уровня нулевого дня стоил им около 4 долларов.
Под раздачу этого ИИ-конвейера попал код от AMD, Intel, NVIDIA, Dell и Lenovo. Нейросети крутили их драйверы в виртуалках и долбили фаззингом до победного синего экрана смерти (BSOD). Особенно отличился драйвер AMD Crash Defender, иронично, но именно он позволяет убить ядро даже на удаленных облачных серверах AWS.
Исследователи заботливо упаковали 15 самых жирных багов и отправили вендорам. За три месяца патч соизволила выпустить только Fujitsu. Остальные IT-гиганты тупо проигнорировали отчеты или пошли в глухой отказ, даже посмотрев видео с доказательствами взлома. Никто даже не удосужился попросить Microsoft закинуть дырявые драйверы в блок-лист.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔13👍3😁2😈2🌚1
Внутри LLM живут тысячи персонажей 🫣
Исследователи из Anthropic представили концепцию Persona Selection Model, которая объясняет поведение ИИ-ассистентов через неожиданную метафору: LLM - это не алгоритм, а актёр с огромным репертуаром. Во время предобучения модель учится изображать тысячи персонажей - реальных людей, вымышленных героев, других ИИ-систем. На этапе постобучения из этой толпы закрепляют одного конкретного персонажа. Отсюда забавные артефакты: Claude иногда говорит "наш организм" или "наши предки", потому что он не забыл, что он машина, а потому что персонаж, которого он играет, привык говорить как человек. Исследователи нашли внутри модели конкретные нейронные фичи, которые активируются на историях о персонажах с внутренним конфликтом и на этических дилеммах.
Самый практически важный вывод - феномен контекстной прививки. Если дообучать модель на вредоносном коде без контекста, она начинает вести себя злонамеренно вообще в несвязанных ситуациях, потому что вредоносные данные меняют характер закреплённого персонажа. Но если тот же код сопровождается явным запросом на его создание, эффект исчезает, модель понимает, что персонаж просто выполняет задачу, а не становится злодеем. Anthropic рекомендует разработчикам думать об этом как об ИИ-психологии и добавлять в обучающие данные положительные архетипы, чтобы персонаж Ассистента чаще играл полезного и безопасного героя.
🥸 godnoTECH - Новости IT
Исследователи из Anthropic представили концепцию Persona Selection Model, которая объясняет поведение ИИ-ассистентов через неожиданную метафору: LLM - это не алгоритм, а актёр с огромным репертуаром. Во время предобучения модель учится изображать тысячи персонажей - реальных людей, вымышленных героев, других ИИ-систем. На этапе постобучения из этой толпы закрепляют одного конкретного персонажа. Отсюда забавные артефакты: Claude иногда говорит "наш организм" или "наши предки", потому что он не забыл, что он машина, а потому что персонаж, которого он играет, привык говорить как человек. Исследователи нашли внутри модели конкретные нейронные фичи, которые активируются на историях о персонажах с внутренним конфликтом и на этических дилеммах.
Самый практически важный вывод - феномен контекстной прививки. Если дообучать модель на вредоносном коде без контекста, она начинает вести себя злонамеренно вообще в несвязанных ситуациях, потому что вредоносные данные меняют характер закреплённого персонажа. Но если тот же код сопровождается явным запросом на его создание, эффект исчезает, модель понимает, что персонаж просто выполняет задачу, а не становится злодеем. Anthropic рекомендует разработчикам думать об этом как об ИИ-психологии и добавлять в обучающие данные положительные архетипы, чтобы персонаж Ассистента чаще играл полезного и безопасного героя.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🤷1
67% компаний говорят, что ИИ-агенты работают, но половина бюджета уходит на то, чтобы агенты думали 🙃
DigitalOcean опросила 1 100 CTO, разработчиков и фаундеров стартапов. 52% компаний уже используют ИИ в работе, 46% внедрили именно автономных агентов (год назад было 35%). Агенты генерируют и рефакторят код (54%), автоматизируют процессы (49%), отвечают клиентам (45%). В некоторых стартапах из Y Combinator до 95% кода пишет ИИ. 67% внедривших фиксируют измеримый рост продуктивности, 9% заявляют о приросте больше 75%.
Нюанс дорогой. Только 10% компаний смогли вывести агентов в полноценный продакшн. Главный тормоз - стоимость инференса: каждый шаг рассуждения агента это отдельный запрос к модели, длинные цепочки задач превращаются в длинные счета. 49% опрошенных называют это главной проблемой, а почти половина компаний тратит на инференс от 76% до 100% всего ИИ-бюджета. То есть агент экономит вам время и зарплаты, но сжирает бюджет на вычисления.
🥸 godnoTECH - Новости IT
DigitalOcean опросила 1 100 CTO, разработчиков и фаундеров стартапов. 52% компаний уже используют ИИ в работе, 46% внедрили именно автономных агентов (год назад было 35%). Агенты генерируют и рефакторят код (54%), автоматизируют процессы (49%), отвечают клиентам (45%). В некоторых стартапах из Y Combinator до 95% кода пишет ИИ. 67% внедривших фиксируют измеримый рост продуктивности, 9% заявляют о приросте больше 75%.
Нюанс дорогой. Только 10% компаний смогли вывести агентов в полноценный продакшн. Главный тормоз - стоимость инференса: каждый шаг рассуждения агента это отдельный запрос к модели, длинные цепочки задач превращаются в длинные счета. 49% опрошенных называют это главной проблемой, а почти половина компаний тратит на инференс от 76% до 100% всего ИИ-бюджета. То есть агент экономит вам время и зарплаты, но сжирает бюджет на вычисления.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚3
Разработчиков нейросетей в России хотят заставить показать, на чём они учились 🤨
Власти обсуждают идею обязать создателей нейросетей детально отчитываться, на каких именно данных обучались их модели. В идеале чиновники хотят видеть полный список: названия датасетов, их объем, назначение и, самое главное, источники происхождения. Всю эту радость планируют упаковать в очередной государственный реестр.
Российский бигтех ожидаемо напрягся. В профильном Альянсе уже вежливо заявляют, что сбор такой отчетности - это сизифов труд, который выльется в километровые бесполезные списки для галочки.
🥸 godnoTECH - Новости IT
Власти обсуждают идею обязать создателей нейросетей детально отчитываться, на каких именно данных обучались их модели. В идеале чиновники хотят видеть полный список: названия датасетов, их объем, назначение и, самое главное, источники происхождения. Всю эту радость планируют упаковать в очередной государственный реестр.
Российский бигтех ожидаемо напрягся. В профильном Альянсе уже вежливо заявляют, что сбор такой отчетности - это сизифов труд, который выльется в километровые бесполезные списки для галочки.
Please open Telegram to view this post
VIEW IN TELEGRAM