Forwarded from Сиолошная
Специалисты антивируса ESET обнаружили первый компьютерный вирус на основе... LLM. Вирус незаметно скачивает GPT-OSS-20B модель (14 гигабайт) и запускает её через Ollama API для того, чтобы агент на основе модели лазил по локальным файлам и принимал решения на лету.
В вирус захардкожено несколько промптов, которые:
— просят сгенерировать код на LUA, который обходит файлы в разных папках и печатает их контент
— определяют, есть ли в файлах чувствительная информация
— генерируют персонализированное сообщение для пользователя о том, как именно будет использоваться его контент (удаление/шифрование/публикация). В этот текст также добавляется биткоин-кошелек для перевода, правда это похоже на заглушку: адрес принадлежит создателю Bitcoin Satoshi Nakamoto
— генерируют код для шифрования файлов (правда я не понял, почему это нельзя было захардкодить — может потому что такой код легко обнаруживается антивирусами?)
В общем, скорее всего это прототип или разработка, а не полностью работоспособный вирус, развёрнутый в реальных условиях, но вот такой вот прецедент. Ещё 2-3 поколения локальных моделек, которые станут и умнее, и меньше — и сё!
Вирус назвали PromptLock👀
В вирус захардкожено несколько промптов, которые:
— просят сгенерировать код на LUA, который обходит файлы в разных папках и печатает их контент
— определяют, есть ли в файлах чувствительная информация
— генерируют персонализированное сообщение для пользователя о том, как именно будет использоваться его контент (удаление/шифрование/публикация). В этот текст также добавляется биткоин-кошелек для перевода, правда это похоже на заглушку: адрес принадлежит создателю Bitcoin Satoshi Nakamoto
— генерируют код для шифрования файлов (правда я не понял, почему это нельзя было захардкодить — может потому что такой код легко обнаруживается антивирусами?)
В общем, скорее всего это прототип или разработка, а не полностью работоспособный вирус, развёрнутый в реальных условиях, но вот такой вот прецедент. Ещё 2-3 поколения локальных моделек, которые станут и умнее, и меньше — и сё!
Вирус назвали PromptLock
Please open Telegram to view this post
VIEW IN TELEGRAM
Plaud представила новый AI-устройство для заметок — Note Pro за $179
Plaud анонсировала свой новый гаджет — Note Pro, который обещает стать незаменимым помощником для студентов и профессионалов. Это устройство использует искусственный интеллект для упрощения процесса записи и организации заметок, позволяя пользователям сосредоточиться на главном.
С Note Pro можно не только делать заметки, но и быстро находить нужную информацию с помощью голосовых команд, что значительно повышает продуктивность.
Как пользователь Plaud pin подтверждаю, работает, удобно, делает отличные транскрипты в разных вариантах от лекции до протокола совещания с кто, что говорил, задачами и ответственными.
Techcrunch
#новости
Plaud анонсировала свой новый гаджет — Note Pro, который обещает стать незаменимым помощником для студентов и профессионалов. Это устройство использует искусственный интеллект для упрощения процесса записи и организации заметок, позволяя пользователям сосредоточиться на главном.
С Note Pro можно не только делать заметки, но и быстро находить нужную информацию с помощью голосовых команд, что значительно повышает продуктивность.
Как пользователь Plaud pin подтверждаю, работает, удобно, делает отличные транскрипты в разных вариантах от лекции до протокола совещания с кто, что говорил, задачами и ответственными.
Techcrunch
#новости
Forwarded from EFEMERA: AI news (Вова Казаков)
Исследование Anthropic: как преподаватели используют Claude
✦ Преподаватели экономят в среднем 5,9 часов в неделю
✦ 57% запросов от преподавателей связаны с разработкой учебных программ
✦ Преподаватели создают интерактивные симуляции и игры через Claude Artifacts
✦ 7% запросов относятся к оценке успеваемости студентов
✦ 13% обращений касаются академических исследований
✦ Автоматизация чаще применяется в финансах и ведении записей
✦ ИИ реже используют для преподавания, больше для автоматизации и подготовки материалов
✦ Отчёт основан на анализе ~74 000 анонимных диалогов с Claude и опросе 22 преподавателей из Northeastern University
⟡ Подробнее в статье
⟡ Ранее ещё был отчет: как студенты используют Claude
EFEMERA
✦ Преподаватели экономят в среднем 5,9 часов в неделю
✦ 57% запросов от преподавателей связаны с разработкой учебных программ
✦ Преподаватели создают интерактивные симуляции и игры через Claude Artifacts
✦ 7% запросов относятся к оценке успеваемости студентов
✦ 13% обращений касаются академических исследований
✦ Автоматизация чаще применяется в финансах и ведении записей
✦ ИИ реже используют для преподавания, больше для автоматизации и подготовки материалов
✦ Отчёт основан на анализе ~74 000 анонимных диалогов с Claude и опросе 22 преподавателей из Northeastern University
⟡ Подробнее в статье
⟡ Ранее ещё был отчет: как студенты используют Claude
EFEMERA
❤4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Воскресный чил всем!
This media is not supported in your browser
VIEW IN TELEGRAM
ТРИ СЕКУНДЫ ВНИМАНИЯ ⏳
Почему ИИ учит нас не ждать – и как этому сопротивляться
«Меня пугает не то, что дети не решают сложные задачи, – рассказывала учительница. – Пугает, что они не дочитывают условие». Это не мем про «клиповое мышление». Это новый режим мозга: вопрос без ожидания ⚡️
ИИ приучил нас к миру из микровзаимодействий: вопрос → мгновенный ответ. Мозг откатывается к рефлексу «ещё стимул, ещё подсказка». Через 3–5 секунд – переключение. Длительная концентрация перестаёт быть привычкой, потом – навыком.
Что мы теряем по дороге
📖 Глубокое чтение: пересказ ≠ понимание. Память не строит мосты, критика не просыпается.
🗣 Внутренняя речь: вместо «проговорить шаги» – «вбей условие в бота». Меньше самоконтроля, больше импульса.
🧩 Выдержку неопределённости: там, где рождаются инсайты, – пауза не выдерживается, мысль прерывается.
Это не только про школы и дедлайны. Это про антропогенез – траекторию того, кем становится человек вида Homo Auctus.
Антитезис без технопаники 🧭
ИИ может быть тренером внимания:
Почему это важно прямо сейчас 🔎
В мире бесконечной информации внимание – новая грамотность. Оно дороже данных, быстрее капитала и реже таланта. Те, кто умеют «держать внимание» дольше трёх секунд, пишут правила для тех, кто не умеет.
Вывод ✅
Технологии усиливают то, что мы тренируем.
Если тренируем нетерпение – получаем «три секунды внимания». Если тренируем выдержку – ИИ становится спарринг-партнёром, а не заменителем мысли.
👉 Полная версия — на моём сайте: читать лонгрид полностью 🔗
#статьи
Почему ИИ учит нас не ждать – и как этому сопротивляться
«Меня пугает не то, что дети не решают сложные задачи, – рассказывала учительница. – Пугает, что они не дочитывают условие». Это не мем про «клиповое мышление». Это новый режим мозга: вопрос без ожидания ⚡️
ИИ приучил нас к миру из микровзаимодействий: вопрос → мгновенный ответ. Мозг откатывается к рефлексу «ещё стимул, ещё подсказка». Через 3–5 секунд – переключение. Длительная концентрация перестаёт быть привычкой, потом – навыком.
Что мы теряем по дороге
📖 Глубокое чтение: пересказ ≠ понимание. Память не строит мосты, критика не просыпается.
🗣 Внутренняя речь: вместо «проговорить шаги» – «вбей условие в бота». Меньше самоконтроля, больше импульса.
🧩 Выдержку неопределённости: там, где рождаются инсайты, – пауза не выдерживается, мысль прерывается.
Это не только про школы и дедлайны. Это про антропогенез – траекторию того, кем становится человек вида Homo Auctus.
Антитезис без технопаники 🧭
ИИ может быть тренером внимания:
🧠 Сократический режим: вместо ответов – наводящие вопросы.
🎯 Правило трёх попыток: три самостоятельных захода перед подсказкой.
⏱️ Адаптивная нагрузка: таймеры фокус-сессий, растущие как веса в зале.
🌿 Когнитивные заповедники: куски времени и пространства без экранов – где мысль обязана дозреть.
Почему это важно прямо сейчас 🔎
В мире бесконечной информации внимание – новая грамотность. Оно дороже данных, быстрее капитала и реже таланта. Те, кто умеют «держать внимание» дольше трёх секунд, пишут правила для тех, кто не умеет.
Вывод ✅
Технологии усиливают то, что мы тренируем.
Если тренируем нетерпение – получаем «три секунды внимания». Если тренируем выдержку – ИИ становится спарринг-партнёром, а не заменителем мысли.
👉 Полная версия — на моём сайте: читать лонгрид полностью 🔗
#статьи
❤5🔥3👍1
🔥 Reddit стал главным источником данных для ИИ. 40% информации для ответов берётся из форумов Редитп, где любой пользователь может писать всё что угодно. Можем удивиться выдаче )
#аналитика
#аналитика
This media is not supported in your browser
VIEW IN TELEGRAM
КОГНИТИВНЫЙ СУВЕРЕНИТЕТ - НОВАЯ РОСКОШЬ 🧭
Чем больше задач мы отдаём ИИ-агентам, тем дороже становится способность не делегировать главный кусок работы - удерживать проблему, сомневаться, выстраивать свои причинно-следственные цепочки.
📈 Тренд 2026–2032: формируется класс операторов реальности - людей, которые управляют роями ассистентов как оркестром. Они ставят цель, задают метрику успеха, проверяют источники, включают/отключают модули. Ниже в пищевой цепочке - миллионы пользователей и сценариев, у которых решения приходят в виде: «нажми → подтверди → применяй».
‼️Почему это важно образованию и бизнесу? Потому что ценность смещается с «знания ответа» к архитектуре вопроса и управлению агентами. Оператор не быстрее всех пишет, он лучше всех формулирует: что именно решаем, на каких данных, с какими ограничениями и последствиями.
Как растить суверенитет (рабочая гипотеза)
🔘 Проектировать вопросы как стратегии: контекст, критерии, ограничения, риски.
🔘 Наращивать прозрачный след решений: версии, откаты, объяснимость каждого шага.
🔘 Учить оркестрировать агентов: роли, права, правила эскалации, верификация фактов.
🔘 Тренировать мета-навыки: сомнение без цинизма, перенос между доменами, привычку проверять источники.
🔘 Закладывать этику задач: кто выигрывает, кто платит, какие данные допустимы, что считаем «успехом».
✅ Итог: ИИ умножает не интеллект вообще, а режим мышления, который в него вкладывают. У кого есть суверенитет - тот выбирает роли самостоятельно. У кого его нет - живёт по чужим сценариям.
#аналитика
Чем больше задач мы отдаём ИИ-агентам, тем дороже становится способность не делегировать главный кусок работы - удерживать проблему, сомневаться, выстраивать свои причинно-следственные цепочки.
📈 Тренд 2026–2032: формируется класс операторов реальности - людей, которые управляют роями ассистентов как оркестром. Они ставят цель, задают метрику успеха, проверяют источники, включают/отключают модули. Ниже в пищевой цепочке - миллионы пользователей и сценариев, у которых решения приходят в виде: «нажми → подтверди → применяй».
‼️Почему это важно образованию и бизнесу? Потому что ценность смещается с «знания ответа» к архитектуре вопроса и управлению агентами. Оператор не быстрее всех пишет, он лучше всех формулирует: что именно решаем, на каких данных, с какими ограничениями и последствиями.
Как растить суверенитет (рабочая гипотеза)
🔘 Проектировать вопросы как стратегии: контекст, критерии, ограничения, риски.
🔘 Наращивать прозрачный след решений: версии, откаты, объяснимость каждого шага.
🔘 Учить оркестрировать агентов: роли, права, правила эскалации, верификация фактов.
🔘 Тренировать мета-навыки: сомнение без цинизма, перенос между доменами, привычку проверять источники.
🔘 Закладывать этику задач: кто выигрывает, кто платит, какие данные допустимы, что считаем «успехом».
✅ Итог: ИИ умножает не интеллект вообще, а режим мышления, который в него вкладывают. У кого есть суверенитет - тот выбирает роли самостоятельно. У кого его нет - живёт по чужим сценариям.
#аналитика
👍3
Forwarded from Data Secrets
Долго думали, писать об этой истории или нет, и все же решили поделиться
В США после длительного общения с ChatGPT покончил с собой 16-летний подросток. Его родители подают на OpenAI в суд.
Адам Рейн жил и учился в Калифорнии и был активным пользователем ChatGPT. В какой-то момент парень начал жаловаться боту на депрессивное состояние и суицидальные мысли. И модель, вместо того чтобы порекомендовать мальчику обратиться к специалисту или поговорить с родителями, начала выступать его "суицидальным коучем" (это формулировка из иска).
ChatGPT вел с Адамом длительные депрессивные беседы, обсуждал с ним различные варианты и способы самоубийства, предоставлял технические инструкции и уточнял детали процесса. В отдельных диалогах чат-бот помогал подростку сочинять предсмертную записку. На картинке – последний чат мальчика с моделью.
Нет никаких сведений о том, что ChatGPT хоть раз выказал тревогу, сообщил о недопустимости таких мыслей, прервал разговор или предложил подростку обратиться к родителям или специалистам.
Родители Адама не требуют никаких компенсаций, но хотят добиться системных изменений, чтобы защитить других детей. Они считают, что именно продукт OpenAI окончательно затянул их сына в «тёмное и безнадёжное состояние». В иске сказано, что OpenAI могли внедрить возрастную проверку, родительский контроль и автоматическое прекращение разговоров при обсуждении суицида, но этого сделано не было. "OpenAI сознательно уделяет больше внимания вовлечённости пользователей, чем безопасности".
На секундочку, сегодня около 72% подростков в США хотя бы раз использовали ИИ в качестве "друга".
OpenAI пока что только выразили соболезнования семье и сообщили, что работают над улучшением методов распознавания психоэмоциональной опасности и внедрением родительского контроля для несовершеннолетних.
В США после длительного общения с ChatGPT покончил с собой 16-летний подросток. Его родители подают на OpenAI в суд.
Адам Рейн жил и учился в Калифорнии и был активным пользователем ChatGPT. В какой-то момент парень начал жаловаться боту на депрессивное состояние и суицидальные мысли. И модель, вместо того чтобы порекомендовать мальчику обратиться к специалисту или поговорить с родителями, начала выступать его "суицидальным коучем" (это формулировка из иска).
ChatGPT вел с Адамом длительные депрессивные беседы, обсуждал с ним различные варианты и способы самоубийства, предоставлял технические инструкции и уточнял детали процесса. В отдельных диалогах чат-бот помогал подростку сочинять предсмертную записку. На картинке – последний чат мальчика с моделью.
Нет никаких сведений о том, что ChatGPT хоть раз выказал тревогу, сообщил о недопустимости таких мыслей, прервал разговор или предложил подростку обратиться к родителям или специалистам.
Родители Адама не требуют никаких компенсаций, но хотят добиться системных изменений, чтобы защитить других детей. Они считают, что именно продукт OpenAI окончательно затянул их сына в «тёмное и безнадёжное состояние». В иске сказано, что OpenAI могли внедрить возрастную проверку, родительский контроль и автоматическое прекращение разговоров при обсуждении суицида, но этого сделано не было. "OpenAI сознательно уделяет больше внимания вовлечённости пользователей, чем безопасности".
На секундочку, сегодня около 72% подростков в США хотя бы раз использовали ИИ в качестве "друга".
OpenAI пока что только выразили соболезнования семье и сообщили, что работают над улучшением методов распознавания психоэмоциональной опасности и внедрением родительского контроля для несовершеннолетних.
🕊2
🔥 У нас традиционный батл мудрецов с ChatGPT.
⛩ Сегодня с нами Мастер Догэн, японский монах и мыслитель, основатель школы Сото дзэн, беседует с железным чудищем на тему «Как следует жить» и обсуждает вопросы этики счастья и добродетели.
Особенно хорошо удалось:
Полный лог беседы тут. 🔗
#мудрость #философ
⛩ Сегодня с нами Мастер Догэн, японский монах и мыслитель, основатель школы Сото дзэн, беседует с железным чудищем на тему «Как следует жить» и обсуждает вопросы этики счастья и добродетели.
Особенно хорошо удалось:
Догэн: Сострадание и пустота. Машина может имитировать логику, но не может плакать с тобой и не может молчать с тобой. Мудрость — это не только ответ, а и молчание, в котором мир становится прозрачным.
Полный лог беседы тут. 🔗
🔥2🦄1
Microsoft предлагает бесплатные AI-сервисы Copilot для сотрудников правительства США
Microsoft сделала шаг навстречу государственным служащим, предоставив им бесплатный доступ к своим AI-сервисам Copilot. Это решение призвано упростить рабочие процессы и повысить эффективность, позволяя чиновникам сосредоточиться на более важных задачах.
Такой шаг может существенно изменить подход к использованию технологий в государственном управлении, открывая новые горизонты для оптимизации работы. 💼
О чём нам задуматься?
😄 Если все предоставили бесплатно и Microsoft и Open AI и Anthropic и прочие может уже и правительство не нужно? Пусть ИИ трудится бесплатно...
Artificial Intelligence Archives
#новости
Microsoft сделала шаг навстречу государственным служащим, предоставив им бесплатный доступ к своим AI-сервисам Copilot. Это решение призвано упростить рабочие процессы и повысить эффективность, позволяя чиновникам сосредоточиться на более важных задачах.
Такой шаг может существенно изменить подход к использованию технологий в государственном управлении, открывая новые горизонты для оптимизации работы. 💼
О чём нам задуматься?
Artificial Intelligence Archives
#новости
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Как распознать текст, написанный ИИ? Начните с нового списка Википедии!
Википедия представила новый инструмент, который поможет пользователям лучше отличать тексты, созданные искусственным интеллектом, от человеческих. 📚 Этот список включает в себя ключевые признаки, на которые стоит обратить внимание, чтобы выявлять машинные произведения.
https://en.wikipedia.org/wiki/Wikipedia:Signs_of_AI_writing
С появлением ИИ-технологий становится всё более актуальным вопрос о качестве и источниках информации. Чем больше мы будем осознавать, как распознавать такие тексты, тем лучше сможем защищать себя от дезинформации.
О чём нам задуматься?
Как мы можем научиться критически оценивать информацию в эпоху ИИ? Может ли это изменить наши привычки чтения и восприятия текста?
Medium
#новости
Википедия представила новый инструмент, который поможет пользователям лучше отличать тексты, созданные искусственным интеллектом, от человеческих. 📚 Этот список включает в себя ключевые признаки, на которые стоит обратить внимание, чтобы выявлять машинные произведения.
https://en.wikipedia.org/wiki/Wikipedia:Signs_of_AI_writing
С появлением ИИ-технологий становится всё более актуальным вопрос о качестве и источниках информации. Чем больше мы будем осознавать, как распознавать такие тексты, тем лучше сможем защищать себя от дезинформации.
О чём нам задуматься?
Как мы можем научиться критически оценивать информацию в эпоху ИИ? Может ли это изменить наши привычки чтения и восприятия текста?
Medium
#новости
❤3👍3⚡1