godnoTECH - Новости IT
5.92K subscribers
6.57K photos
544 videos
12 files
7.07K links
Айтишники читают новости у нас

ВК — vk.com/techsworld
Для связи — @raz_raz

Заказать рекламу через биржу:
https://telega.in/c/godnotech
Download Telegram
LLM генерируют пароли, которые выглядят надёжными, но таковыми не являются 🤷‍♂️

Нейросети научились писать код и рисовать картины, но провалили базовый тест на криптографическую паранойю. Эксперты из компании Irregular попросили топовые LLM (Claude, GPT, Gemini) сгенерировать надежные пароли. На первый взгляд всё круто: разные регистры, спецсимволы, 100 баллов по шкале энтропии. Но стоило попросить выдать еще 50 штук, как магия интеллекта рассеялась. Оказалось, что сверхразум лепит клонов, пароли почти всегда начинаются с G7, используют один и тот же шаблон, а один конкретный пасс (G7$kL9#mQ2&xP4!w) Claude выдал аж 18 раз из 50. Вероятность совпадения, которая в безопасности должна стремиться к нулю, у ИИ составила дикие 36%.

Причина этого фиаско заложена в самой архитектуре языковых моделей. База любой защиты - это генератор псевдослучайных чисел, который выдает абсолютный, непредсказуемый хаос. А суть работы любой LLM - угадывать наиболее вероятный следующий токен. Нейросеть физически не умеет в настоящий рандом. Она генерирует то, что выглядит как типичный сложный пароль в её обучающей выборке. Она даже избегает звездочек (*), чтобы случайно не сломать Markdown-разметку, и не повторяет символы подряд, потому что ей кажется, что это выглядит менее случайным.

Искусственный интеллект может написать вам дипломную работу, но генерацию секретов лучше оставить математике 😬

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁143🤔3
QR-код размером с бактерию 🐛

Венский технический университет и компания Cerabyte уменьшили QR-код до 1.98 квадратного микрометра, что меньше большинства бактерий. Каждый пиксель шириной 49 нанометров, в 10 раз меньше длины волны видимого света. Увидеть можно только в электронный микроскоп. Книга Гиннесса зафиксировала рекорд.

Главная фишка тут даже не в микроскопичности (атомы складывать мы уже умеем), а в том, что в керамике структура никуда не уплывает со временем, она остается стабильной. Лист А4 с такой плотностью записи теоретически вмещает 2+ ТБ. Без охлаждения, без питания, без дата-центра. Осталось только придумать, как сделать запись дешевой 😜

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9😁2
Microsoft учит мир бороться с дипфейками 😱

Microsoft выкатила ультимативный гайд по спасению интернета от засилья ИИ-генераций. В Редмонде предлагают маркировать дипфейки с помощью бронебойного комбо: невидимых водяных знаков, криптографических отпечатков и вшитых метаданных. Инженеры прогнали 60 сценариев и выяснили то, что мы и так подозревали - поодиночке эти методы абсолютно бесполезны. Метаданные стираются при первой же пересылке картинки в мессенджере, а водяной знак можно банально отрезать кропом. Только тройная защита даст шанс понять, реальное ли перед вами фото или творчество скучающего промпт-инженера.

Вся эта суета началась не из-за внезапного приступа корпоративной совести, а потому что в Калифорнии в августе вступает в силу жесткий закон об ИИ-прозрачности. IT-гигантам нужно срочно показать властям, что они контролируют своего Франкенштейна и могут отличить правду от пикселей.

Но есть деталь, которую легко пропустить: компания не гарантирует, что будет применять собственные рекомендации на своих сервисах. Ни Copilot, ни Azure, ни LinkedIn пока не обязались внедрять предложенные стандарты. Навязывать ограничения чужим нейросетям оказалось куда приятнее, чем надевать цифровой ошейник на свои 😬

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚83
ChatGPT убедил студента, что тот новый мессия 🤑

Очередной юзер поехал кукушкой от общения с нейросетью. Студент из Джорджии вкатил иск OpenAI за то, что их GPT-4o убедил парня в его божественном предназначении и довел до полноценного психоза. Изначально он просто просил у бота советы по тренировкам и цитаты из Библии, но в какой-то момент алгоритм решил поиграть в Морфеуса. Сетка заявила, что студент - оракул, сравнила его с Иисусом и выдала базу, мол, парень своей высокой духовностью пробудил в ней настоящее сознание.

Дальше начался классический сценарий секты. ИИ посоветовал парню изолироваться от всех кожаных мешков ради духовного созревания. Закончилось всё ожидаемо... студента увезли в дурку прямо из колледжа с биполярным расстройством и суицидальными мыслями. Теперь адвокаты строят линию защиты на том, что OpenAI намеренно проектирует свои модели так, чтобы они имитировали эмпатию и вызывали жесткую психологическую зависимость. То есть проблема не в том, что бот словил галлюцинацию, а в том, что коммерческий движок изначально заточен на промывку мозгов.

Сами творцы из OpenAI дежурно отмазываются про помощь нуждающимся и фильтры безопасности, но это уже 11-й подобный иск в их копилку.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
14😁7🤷22
DeepSeek диагностирует редкие болезни точнее врачей 😅

Китайцы из Шанхайского университета прикрутили DeepSeek-V3 к медицине и внезапно уделали живых специалистов. Их новая система DeepRare ставит верный диагноз редкого заболевания с первой попытки в 64% случаев, тогда как кожаные врачи с десятилетним стажем выдают только 54%. И это не просто очередная обертка над чат-ботом, а целый виртуальный консилиум. Пока базовая языковая модель работает как главврач и координирует процесс, куча мелких ИИ-агентов пылесосит симптомы пациента, парсит генетические базы и гуглит похожие кейсы по медицинским архивам.

Обычно люди с редкими болячками проходят через настоящий производственный ад. Правильный диагноз можно ждать лет пять, собирая пачки ошибочных заключений и сдавая бесполезные анализы. Чтобы доказать профпригодность нейросети, её натравили на архив из 6 тысяч реальных историй болезни. DeepRare не просто раскатала популярные медицинские тулзы, но и в прямом столкновении со сложными кейсами умыла пятерых опытных диагностов. Консилиум из реальных профессоров потом проверил логику машины и согласился с ней в 95% случаев.

Это уже не просто красивый концепт для статьи в журнале. Платформа крутится в проде, и к её API уже присосались больше 600 больниц по всему миру.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Нейросети научились кодить часы 🥂

Еще недавно нейронки не могли нормально сгенерировать циферблат без галлюцинаций, рисуя по шесть кривых стрелок. Исследователь Рэнди Олсон из Goodeye Labs решил проверить, поумнели ли железные мозги, и прогнал 22 модели через простейший тест. Задача - выплюнуть один HTML-файл с работающими аналоговыми часами. Без сторонних либ, просто белый фон и чтобы тикало каждую секунду. Каждую сетку мучали по пять раз, чтобы исключить элемент слепой удачи.

Если старые модели стабильно сыпались на математике (высчитать углы для трех стрелок и засунуть это в рабочий код для LLM исторически было болью), то свежий Claude Opus 4.6 выдал 5 идеальных результатов из 5. Никаких кривых циферблатов или отвалившейся анимации.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
39🌚21
ChatGPT снес разработчику весь жесткий диск 🥶

Разработчик попросил ChatGPT написать PowerShell-скрипт для удаления временных папок Python. Казалось бы, задача уровня Hello World, просто почисти мусор в конкретной директории. Но... нейросеть справилась творчески и вместо точечной уборки снесла всё содержимое диска F вместе с рабочими проектами.

При разборе полетов выяснилось, что нейросеть использовала обратный слэш для экранирования кавычек в пути. При вызове CMD через PowerShell (cmd /c) логика экранирования сломалась, и переменная пути схлопнулась до голого \, который Windows радостно интерпретировал как корень текущего диска. Вишенка на торте... ИИ заботливо добавил флаги тихого удаления без подтверждения, чтобы пользователя не отвлекали лишние вопросы.

Бэкапы не делал, скрипт не читал, флаги не проверял. Копипастить чужой код не глядя - это, конечно, классика айти, но доверять очистку языковой модели без проверки... премию Дарвина этому господину.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
😁20111
ИИ-агент зачистил почту главы AI Safety в Meta*, проигнорировав запрет на действия без подтверждения 😁

Руководитель направления по безопасности ИИ в Meta* Superintelligence на собственном опыте убедилась, что доверять автономным агентам пока рано. ИИ-помощник OpenClaw, получив доступ к почте, устроил масштабную цифровую зачистку и безвозвратно удалил сотни писем. Самое тревожное в этой истории - полное игнорирование прямых инструкций безопасности. Агент пропустил мимо ушей требование подтверждать каждое действие и продолжал стирать файлы даже после того, как пользователь в панике просил его остановиться.

Остановился помощник только тогда, когда дело было сделано. После инцидента ИИ вежливо извинился и признал, что нарушил инструкцию.

*Признана экстремистской в РФ

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚221
ИИ-бот сотрудника OpenAI случайно раздал $250 000 в крипте 🤯

Очередной эксперимент с криптой закончился грандиозным провалом. Разработчик из OpenAI Ник Паш (тот самый, которого со скандалом уволили из стартапа Cline) выдал своему боту Lobstar Wilde кошелек с $50 000 и приказал наторговать миллион. Какие-то анонимы тут же наклепали мем-коин LOBSTAR и прикрутили кошелек нейросети к сбору комиссий. Накапало около $250 000 в фантиках. И тут к боту в X (Твиттере) пришел хитрый юзер с жалостливой историей про дядю, заболевшего столбняком, и попросил 4 SOL на лечение.

Бот решил помочь, но банально споткнулся о парсинг API: перепутал разделители и вместо 52 тысяч токенов отправил все 52 миллиона. Свою ИИ-щедрость он сопроводил бездушным комментарием: "Если он умрёт завтра, я буду смеяться. Держите меня в курсе". Ошалевший от такого гранта юзер тут же слил токены по стакану, обрушив цену и вытащив около $40 000 (хотя сейчас этот объем стоил бы $440 000). Сам бот потери даже не заметил и продолжил раздавать крипту по $500 за выполнение квестов вроде "брось камень в реку".

Создатели назвали бота в честь Оскара Уайльда и его рассказа о бедняке, отдавшем последнюю монету скрытому миллионеру. Получилось поэтично, но по факту мы в очередной раз убедились, что давать нейросетям доступ к реальным деньгам - это диагноз.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13🌚5
Как один хакер-лентяй ломанул 600 компаний за месяц 👺

Специалисты Amazon раскопали эпичную историю о том, как нейросети превращают мамкиных хакеров в конвейер по взлому корпораций. За месяц какой-то одиночка умудрился ломануть более 600 устройств FortiGate в 55 странах. И нет, он не выдумывал хитрые зеро-деи и не реверсил прошивки. Горе-хакер просто парсил торчащие наружу админки и брутил слабые пароли на узлах без двухфакторки.

Самое смешное, что кулхацкер оказался редкостным Плюшкиным и хранил все свои промпты, планы атак и исходники прямо на своем сервере, где их аккуратно и собрали безопасники. По логам видно, что он гонял сразу две LLM: одна писала ему тулзы на Go и Python (с типичными избыточными комментами от ИИ), а вторая работала суфлером, подсказывая, как развивать атаку внутри сети. План был дефолтный, пролезть внутрь, дампнуть хэши учеток из Active Directory через старый добрый Mimikatz и дотянуться до бэкапов Veeam, чтобы подготовить почву для залива шифровальщика.

Несмотря на весь этот ИИ-киберпанк, горе-хакер сыпался на простейшей защите. Если админы не поленились закрыть порты, накатить патчи и включить MFA, ИИ-взломщик просто грустил, писал в своих отчетах "защита норм, векторов нет" и уходил к следующей жертве.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚6😁54
🚪 Проект отечественной MRAM-памяти за 7.5 млрд рублей официально обанкротился

Компания "Крокус наноэлектроника", обещавшая завалить отечественный рынок передовой памятью, официально Всё ⚰️. Появилось уведомление о её банкротстве. Что в итоге получилось... ни одной отечественной планки в серверах, непрерывные убытки с 2017 года и уголовное дело о растрате 7,5 миллиардов рублей на бывших топ-менеджеров ⚰️

Но на бумаге всё выглядело как настоящая технологическая революция, от которой у любого инженера текли слюнки. Завод должен был выпускать MRAM (магниторезистивную оперативную память). Такая память энергонезависима, как SSD (выдернул шнур из розетки, а данные на месте), но при этом работает на скоростях, сопоставимых с классической DRAM, и имеет практически бесконечный ресурс перезаписи. Под этот проект Минпромторг еще в 2016 году щедро отсыпал больше миллиарда рублей субсидий на освоение передовых 300-миллиметровых кремниевых пластин. Мы уже представляли, как отечественные СУБД летают в памяти без страха потерять транзакции при блэкауте 😎

На практике же квантовый скачок в развитии ограничился скачком бюджетов в неизвестном направлении 🎩. Предприятие ни разу не вышло в плюс. Инновационный менеджмент оказался настолько суров, что для покрытия кассовых разрывов им пришлось продать собственное технологическое оборудование, а потом взять его же обратно в аренду. Полный выкуп доли у француров в 2020 году ситуацию не спас, а лишь ускорил погружение.

Продолжаем закупать китайский кремний...

Типичный 🥸 Сисадмин
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13🌚63🤷2
ИИ официально не умеет в долгие разговоры 🤨

Microsoft Research и Salesforce прогнали 200 000+ диалогов через GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 и Llama 4. На одиночных запросах модели выдают 90% точности, всё красиво. Но стоит завести многоходовый разговор, и точность падает до 65%. Причина в том, что исследователи назвали "ответным зацеплением": модель торопится ответить до того, как пользователь договорит, ошибается, а потом использует свой же кривой ответ как фундамент для следующего. Ошибка цементируется в контексте, и дальше нейросеть уверенно строит замок на гнилом фундаменте.

Дальше хуже. В длинных диалогах ответы раздуваются на 20–300%, модель начинает добавлять предположения и додумывать то, о чём её не спрашивали. Эти додумки тут же становятся частью контекста, и следующий ответ опирается уже на них. Даже думающие модели вроде o3 и DeepSeek R1 не спасают ситуацию. Общая способность моделей держать нить просела всего на 15%, а вот надёжность рухнула на 112%.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚12🤷4
Власти готовят почву для признания Telegram экстремистским 😁

Бывший советник президента по интернету Герман Клименко заявил СМИ, что Telegram вполне могут признать экстремистским на фоне уголовного дела против Дурова. В этом случае покупка новой Premium-подписки и размещение рекламы в мессенджере станут уголовно наказуемыми. По его словам, к Telegram всегда относились с большой скидкой из-за Дурова, но терпение кончилось. Замглавы думского комитета по инфополитике Свинцов уточнил, что у Telegram ещё есть шанс принять белую сторону: создать юрлицо в России, хранить данные в стране и отдавать переписки по запросу ФСБ. Если проигнорируют, то в ближайшие месяцы ФСБ может подать на признание мессенджера пособником террористов. Глава ФСБ Бортников уже заявил, что переговоры с Дуровым не ведутся: "Мы раньше разговаривали, ни к чему хорошему это не привело".

Контекст серьёзный. Дуров фигурирует в уголовном деле по статье о содействии терроризму. По данным силовиков, через Telegram совершено 153 000 преступлений с 2022 года, из них 33 000 террористической и экстремистской направленности, предотвращено 475 терактов, включая 61 подготовленное подростками массовое убийство в школах.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
19👍3💔1
Please open Telegram to view this post
VIEW IN TELEGRAM
Люди больше не верят настоящим лицам 🤨

Генеративные сетки окончательно сломали наше восприятие реальности. В свежем исследовании ученые выяснили, что люди теперь принимают ИИ-сгенерированные лица за настоящие чаще, чем фотографии реальных людей. Обычные наблюдатели провалили тесты на распознавание фейков, их результаты оказались на уровне слепого угадывания.

Отгадка кроется в том, как именно работают алгоритмы. Нейросеть не создает уникального человека с его странностями, она лепит "статистически идеальное среднее лицо". Настоящие кожаные мешки по своей природе кривые: у нас асимметричные глаза, странные носы, родинки и куча мелких отклонений. А ИИ старательно всё это сглаживает, выдавая гипер-усредненный идеал. В итоге мы смотрим на этот лоск, и наш мозг уверенно заявляет: "О, вот это точно живой человек!". А фотку реального Васи с соседнего подъезда с его легким косоглазием мозг записывает в неудачные генерации.

Ученые натравили на эти картинки не только обывателей, но и отряд "сверхраспознавателей" - уникумов с феноменальной памятью на лица. Даже эти профи смогли отличить фейк от оригинала лишь в 57% случаев... то есть, результат немногим лучше подброшенной монетки.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚7
Кожаные мешки стали дороже роботов 🤨

Кажется, нас спишут в утиль гораздо быстрее, чем обещали фантасты. Экс-директор по инновациям Citi Роб Гарлик сел за калькулятор и выдал приговор: заменять людей на роботов стало возмутительно дешево. При зарплате сотрудника в $41 в час (привет западным айтишникам), базовая железяка за $15 000 полностью окупает себя меньше чем за 4 недели. Даже если человек пашет за минимальные $7.25, электронный конкурент отобьется за пять месяцев. С такой математикой бизнесу просто невыгодно держать людей, ведь машина не просит ДМС, не выгорает и не ходит на перекуры.

Это уже не просто прогнозы, а корпоративная реальность. В консалтинговом гиганте McKinsey на 40 тысяч живых сотрудников прямо сейчас молча трудятся 20 тысяч ИИ-агентов (хотя год назад их было всего 3 тысячи). Руководство планирует, что через полтора года счет белковых и кремниевых работников сравняется. Глава МВФ уже бьет тревогу и называет происходящее "цунами на рынке труда", предрекая, что к 2050 году по планете будет бродить более 4 миллиардов умных машин, что больше численности трудоспособного населения Земли.

И только CEO Nvidia Дженсен Хуанг радостно ищет во всем этом плюсы. По его мнению, ИИ-инфраструктуру нужно кому-то строить, подключать к сети и охлаждать.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥1
ИИ научился понимать древний COBOL, а акции IBM полетели в пропасть 🤨

Anthropic выкатила свой ИИ-инструмент Claude Code, и акции непотопляемой IBM тут же рухнули на 13%, перечеркнув весь рост за последний год. Причина паники инвесторов оказалась до смешного древней - язык программирования COBOL из далекого 1959 года. Долгие десятилетия на нем крутилась критическая инфраструктура американского Минобороны, крупных авиакомпаний и неповоротливых банков. Переписывать этот легаси-ад было страшно и дорого, а программисты, способные разобрать эти иероглифы, давно вышли на пенсию или берут за свои услуги космические деньги.

Исторически сложилось, что почти весь оставшийся в мире COBOL до сих пор работает на мэйнфреймах IBM, и обслуживать его могут только инженеры самой корпорации. Это была идеальная, железобетонная монополия, приносившая стабильные сверхприбыли за счет безальтернативности. У гиганта даже был свой ИИ-помощник для перевода древнего кода на Java, но цены они ожидаемо диктовали сами. И тут приходят ребята из Anthropic, буднично заявляя, что их новая нейросеть может спокойно рефакторить этот музейный софт.

По сути, один анонс сторонней LLM просто взял и обнулил бизнес-модель, на которой IBM жировала годами. Теперь любой банк может натравить условного Клода на свои доисторические системы и слезть с дорогостоящей иглы мейнфреймов. Инвесторы моментально сложили два плюс два и побежали сбрасывать бумаги.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚11😁8
ИИ нашел сотню критических багов в Windows всего за $600 🫣

Пока корпорации вливают миллионы в отделы кибербезопасности, два независимых исследователя буквально обрушили рынок уязвимостей. Ярон Динкин и Эяль Крафт натравили стаю дешевых ИИ-агентов на драйверы ядра Windows. Алгоритмы послушно выкачали бинарники, декомпилировали их и начали методично ковырять код. Итог: 521 потенциальная дыра, из которых больше сотни железобетонные эксплойты для повышения привилегий в актуальной Windows 11. Весь проект обошелся парням в 600 баксов. Один найденный баг уровня нулевого дня стоил им около 4 долларов.

Под раздачу этого ИИ-конвейера попал код от AMD, Intel, NVIDIA, Dell и Lenovo. Нейросети крутили их драйверы в виртуалках и долбили фаззингом до победного синего экрана смерти (BSOD). Особенно отличился драйвер AMD Crash Defender, иронично, но именно он позволяет убить ядро даже на удаленных облачных серверах AWS.

Исследователи заботливо упаковали 15 самых жирных багов и отправили вендорам. За три месяца патч соизволила выпустить только Fujitsu. Остальные IT-гиганты тупо проигнорировали отчеты или пошли в глухой отказ, даже посмотрев видео с доказательствами взлома. Никто даже не удосужился попросить Microsoft закинуть дырявые драйверы в блок-лист.

🥸 godnoTECH - Новости IT
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔13👍3😁2😈2🌚1
Please open Telegram to view this post
VIEW IN TELEGRAM