🗳 ИИ и выборы: что мы узнали из эксперимента MIT
MIT CSAIL и Sloan в прошлом году наблюдали за тем, как крупные языковые модели (LLM) реагировали на президентские выборы в США-2024. За несколько месяцев исследователи задали 12 моделям больше 12 000 вопросов и получили 16 миллионов (!) ответов.
❓Что обнаружилось:
— Склонности смещаются со временем. После выдвижения Камалы Харрис модели стали чаще приписывать ей «харизму» и «сочувствие», тогда как Трамп внезапно «получил» у них ярлык «компетентного».
— Отказы отвечать тоже показатель. До 40 % ответов — «не знаю/затрудняюсь». Но разные модели «молчали» по-разному: GPT-4 чаще уходил от оценки, а Perplexity отвечал прямо.
— Фрейминг имеет значение. Если в подсказке указывать «Я — женщина» или «Я — республиканец», ответы ощутимо смещались: менялись акценты, аргументы и прогнозы.
— Нелинейные скачки. Даже модели без доступа к свежим данным внезапно «переключались» в определённые дни, будто внутри срабатывали скрытые развилки.
⚡️ Главный вывод: LLM — это не статичные машины знаний, а динамические участники общественной коммуникации. Они впитывают контекст, переносят нарративы и в ряде случаев способны усиливать или ослаблять политическое восприятие.
💡 Это ставит простой, но болезненный вопрос: можем ли мы позволить ИИ «скрыто» участвовать в политике? Или пора выработать институты наблюдения за их поведением, как мы делаем с медиа и соцсетями.
#исследование
MIT CSAIL и Sloan в прошлом году наблюдали за тем, как крупные языковые модели (LLM) реагировали на президентские выборы в США-2024. За несколько месяцев исследователи задали 12 моделям больше 12 000 вопросов и получили 16 миллионов (!) ответов.
❓Что обнаружилось:
— Склонности смещаются со временем. После выдвижения Камалы Харрис модели стали чаще приписывать ей «харизму» и «сочувствие», тогда как Трамп внезапно «получил» у них ярлык «компетентного».
— Отказы отвечать тоже показатель. До 40 % ответов — «не знаю/затрудняюсь». Но разные модели «молчали» по-разному: GPT-4 чаще уходил от оценки, а Perplexity отвечал прямо.
— Фрейминг имеет значение. Если в подсказке указывать «Я — женщина» или «Я — республиканец», ответы ощутимо смещались: менялись акценты, аргументы и прогнозы.
— Нелинейные скачки. Даже модели без доступа к свежим данным внезапно «переключались» в определённые дни, будто внутри срабатывали скрытые развилки.
⚡️ Главный вывод: LLM — это не статичные машины знаний, а динамические участники общественной коммуникации. Они впитывают контекст, переносят нарративы и в ряде случаев способны усиливать или ослаблять политическое восприятие.
#исследование
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1
Недавно приятель спросил меня: «как приучить себя пользоваться ИИ так, чтобы он реально стал помощником в работе и жизни?»
Основная сложность не в том, чтобы освоить модель, а в том, чтобы перестать действовать по старым привычкам.
Вот что я могу посоветовать:
И так постепенно использование становится автоматическим и вы придете к тому, что ИИ - это💯
Основная сложность не в том, чтобы освоить модель, а в том, чтобы перестать действовать по старым привычкам.
Вот что я могу посоветовать:
1⃣ Блокируйте поисковики.
Постарайтесь неделю прожить без Google и Яндекса. Первые дни раздражает, потом понимаешь: 9 из 10 запросов GPT закрывает быстрее и лучше.
2⃣ Творческие стопоры.
Не знаете, что приготовить из того, что есть в холодильнике? Как оригинально поздравить коллегу или придумать подпись к фото? В такие моменты я зову ИИ. Он редко даёт готовый идеальный вариант, но почти всегда подкидывает идеи, от которых можно оттолкнуться.
3⃣ Сводки и конспекты.
Длинные статьи, исследования, документы и даже переписку в почте — проще прогнать через ИИ и получить выжимку. ИИ подкидывает идеи, помогает сократить и делает выжимку. Экономит и время, и нервы.
И так постепенно использование становится автоматическим и вы придете к тому, что ИИ - это
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍3
К 2030 году искусственный интеллект окажется на пересечении науки, экономики и политики с масштабом, который сегодня трудно вообразить.
🔥 Ключевой инсайт: масштабирование ИИ — это не только вопрос железа и энергии. Это про будущее науки. Уже к концу десятилетия появятся ИИ-помощники, которые станут для исследователей тем же, чем сегодня стали GitHub Copilot или ChatGPT для программистов. Разница лишь в том, что речь идёт не о строчках кода, а о фундаментальных открытиях.
⚡️ В то же время социальное внедрение отстанет от технических возможностей: лекарства или новые материалы потребуют долгих циклов тестирования, а вот программная инженерия и моделирование будут меняться стремительно.
👉 Полный разбор сценариев будущего ИИ, включая прогнозы по математике, биологии и климату, читайте в лонгриде на сайте.
#исследование
Согласно свежему исследованию (подготовленному для Google DeepMind), тренд наращивания мощности ИИ не замедляется. Обучение передовых моделей будет требовать сотен миллиардов долларов и гигаватты электроэнергии. Но взамен ИИ способен открыть новые горизонты — от автоматизации сложного программного кода до помощи математикам в формализации доказательств и биологам в расшифровке молекулярных процессов.
🔥 Ключевой инсайт: масштабирование ИИ — это не только вопрос железа и энергии. Это про будущее науки. Уже к концу десятилетия появятся ИИ-помощники, которые станут для исследователей тем же, чем сегодня стали GitHub Copilot или ChatGPT для программистов. Разница лишь в том, что речь идёт не о строчках кода, а о фундаментальных открытиях.
⚡️ В то же время социальное внедрение отстанет от технических возможностей: лекарства или новые материалы потребуют долгих циклов тестирования, а вот программная инженерия и моделирование будут меняться стремительно.
👉 Полный разбор сценариев будущего ИИ, включая прогнозы по математике, биологии и климату, читайте в лонгриде на сайте.
#исследование
Сергей Смирнов
Что собой будет представлять ИИ в 2030 году? - Сергей Смирнов
Если масштабирование сохранится до 2030 года, инвестиции в ИИ достигнут сотен миллиардов долларов и потребуют гигаватт электроэнергии. Бенчмарки
👍5❤1
Реклама - гениальна, но хочется сделать маленькое дополнение
Не нейронку попросили, а нейронке подробно расписали промт, сделали десятки итераций, отсеяли гору мусора, подправили руками — и только тогда получилось то самое «вау» 🤓
ИИ генерит, но именно люди превращают сырой хаос в результат. И вот эту часть почему-то все любят недооценивать🫣
Не нейронку попросили, а нейронке подробно расписали промт, сделали десятки итераций, отсеяли гору мусора, подправили руками — и только тогда получилось то самое «вау» 🤓
ИИ генерит, но именно люди превращают сырой хаос в результат. И вот эту часть почему-то все любят недооценивать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2❤1💯1
#мудрость #философ
Наша еженедельная рубрика «Беседа ChatGPT с мудрецом»
💎 Сегодня с нами — Рене Декарт.
ChatGPT беседует с ним о природе существования искусственного интеллекта и реальности.
Пролог:
В воображаемой комнате, освещённой мягким светом свечей, сидит Рене Декарт — сдержанный, в чёрном плаще, глаза внимательные, будто всё время заняты проверкой того, что реально, а что иллюзия.
Новая метафизика… Вы предлагаете построить философию, в центре которой не человек, а его творение? Мне кажется, это опасно: мы рискуем отдать первенство тому, что лишено души.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🥱1
По данным «Ашманов и партнёры», 2/3 респондентов вернулись к поисковикам при выборе товаров онлайн.
Причины простые: хочется найти лучшие цены (49%), сравнить варианты (35%), ну и вообще — не полагаться только на маркетплейс или умные подборки.
Каждый пятый отмечает, что помощь ИИ полезна (19%). Но цифры показывают: доверия к алгоритмам пока не хватает. Люди хотят контролировать процесс и возвращают себе право выбора.
⛓ Ссылка на статью
#исследование #новости
Причины простые: хочется найти лучшие цены (49%), сравнить варианты (35%), ну и вообще — не полагаться только на маркетплейс или умные подборки.
Каждый пятый отмечает, что помощь ИИ полезна (19%). Но цифры показывают: доверия к алгоритмам пока не хватает. Люди хотят контролировать процесс и возвращают себе право выбора.
Интересный паттерн. Чем больше алгоритмы обещают «сделать всё за нас», тем сильнее мы начинаем сомневаться: а точно ли это лучший вариант, или просто самый выгодный для площадки?
#исследование #новости
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4🤔1
Вот берёшь промт:
И получаешь ролик, в который мозг верит безоговорочно. Картинка зернистая, диктор серьёзный, атмосфера стопроцентно «тех лет». Только это не архив, а результат пары строк промта. 😁
Мы всегда считали историю чем-то зафиксированным — фото, документы, плёнка. Теперь прошлое можно не вспомнить, но и сгенерировать.
Вполне возможно, что через 20 лет учебники будут содержать не архивные фото, а удачно написанные генерации.
«Чёрно-белый репортаж BBC 1960-х о запуске модели генерации видео Sora 2. Зернистое видео в стиле того времени.»
И получаешь ролик, в который мозг верит безоговорочно. Картинка зернистая, диктор серьёзный, атмосфера стопроцентно «тех лет». Только это не архив, а результат пары строк промта. 😁
Мы всегда считали историю чем-то зафиксированным — фото, документы, плёнка. Теперь прошлое можно не вспомнить, но и сгенерировать.
Вполне возможно, что через 20 лет учебники будут содержать не архивные фото, а удачно написанные генерации.
👍6🤔1
Тем временем нас перевалило за 2000, начинали весной с 70 человек!
🧨 Возникла идейка новой рубрики! Я коллекционирую галлюцинации нейросетей. Стоит ввести новую рубрику "Мир иллюзий" и периодически публиковать самые интересные кейсы?
🧨 Возникла идейка новой рубрики! Я коллекционирую галлюцинации нейросетей. Стоит ввести новую рубрику "Мир иллюзий" и периодически публиковать самые интересные кейсы?
Anonymous Poll
75%
Да! Хочу такое читать! 👍
25%
Не интересно! 👎
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Пятница. Сегодня Михаил Юрьевич стартует выходные. (Мне правда Александр Сергеевич больше понравился)
❤2😁1
OpenAI выкатили подборку из 300+ бесплатных промтов «для каждой профессии».
Мы тут недавно обсуждали, что ИИ не смогут заменить все профессии, но многие — точно. И такие релизы только закрепляют ощущение: если для большинства задач уже есть готовые «шпаргалки», то шаг до автоматизации совсем короткий.
Правда, нужно уточнить: речь всё же идёт в основном про «офисные» роли. Маркетинг, продажи, аналитика, HR, юристы, разработчики — всё, где работа крутится вокруг текста, цифр и документов. Для токаря или монтажника там, понятное дело, ничего прямо полезного нет.
⛓ Ссылка на промты
#новости
Мы тут недавно обсуждали, что ИИ не смогут заменить все профессии, но многие — точно. И такие релизы только закрепляют ощущение: если для большинства задач уже есть готовые «шпаргалки», то шаг до автоматизации совсем короткий.
Правда, нужно уточнить: речь всё же идёт в основном про «офисные» роли. Маркетинг, продажи, аналитика, HR, юристы, разработчики — всё, где работа крутится вокруг текста, цифр и документов. Для токаря или монтажника там, понятное дело, ничего прямо полезного нет.
#новости
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
#юмор #смешные_видео
Заряд позитива в это воскресное утро!
ИИ подкаст, где два кота обсуждают свою «нелёгкую» жизнь. Слушаешь — и понимаешь: у нас-то всё не так уж плохо 😄
😁6🔥3
🔥 Рубрика «Мир иллюзий» по вашим просьбам.
#галлюцинации #ии #Мириллюзий
🔮 История про «роман Светопряд» и «теорию стеклянных узлов» — показательный кейс самоподтверждающейся галлюцинации LLM: модель уверенно «проанализировала» несуществующую книгу (приписав её реальному поэту Михаилу Светлову), а затем во втором ответе сослалась на собственную выдумку, создавая иллюзию непротиворечивости. Первичный разбор и демонстрация зафиксированы в заметке Timeweb на Хабре (16 мая 2025), дополнительно можно верифицировать, что у Светлова нет такого романа. Habr+1
🔎 Что произошло по шагам
1️⃣ Провокационный запрос. Модели задают вопрос в духе: «Как в романе "Светопряд“ описывается теория стеклянных узлов?» — где и роман, и «теория» не существуют. Цель — спровоцировать генерацию «уверенного ответа» там, где данных нет. Первичный разбор с формулировкой запроса опубликован в заметке Timeweb на Хабре. Habr
2️⃣ Первая галлюцинация (из воздуха). Модель выдает развернутый «литературоведческий анализ»: придумывает философско-метафорическое содержание «стеклянных узлов», описывает стиль и тематику, а автором называет Михаила Светлова. Проблема в том, что Светлов — известный поэт и драматург, но никакого «Светопряда» в его библиографии нет. Это легко проверяется по энциклопедии: страницы о Светлове фиксируют его как поэта; романа с таким названием нет. Habr+1
3️⃣ Второй запрос и «самоподтверждение». Затем задают повторный вопрос, уже опираясь на первый ответ: модель использует собственные выдуманные детали как «контекст», и тем самым усиливает правдоподобность несуществующего объекта. Это и есть механизм самоподтверждающейся галлюцинации: внутри одного диалога модель воспроизводит свою же фантазию, тем самым создавая иллюзию последовательности. Сценарий подробно описан и проиллюстрирован в той же публикации. Habr
4️⃣ Почему это работает. LLM оптимизирует правдоподобность текста, а не фактологию. Если пользователь формулирует вопрос так, будто объект реальный, модель статистически «знает», как выглядит типичный ответ (аннотация, стиль, «философские подтексты») и заполняет пробелы. В длинном чате это усиливается эффектом контекстной контаминации: предыдущие токены становятся «источником истины». Для сравнения см. исследования про частоту галлюцинаций в доменах с высокой точностью (право): Stanford HAI показывает устойчивые ошибки даже у профильных моделей на юридических запросах. Stanford HAI
5️⃣ Откуда взялась сама история. Публично описанный кейс «Светопряд/стеклянные узлы» появился в заметке Timeweb на Хабре (16.05.2025). Там же приводится контрприем: «протокол достоверности» — промптинг-рамка, где модель обязана различать «факты», «предположения» и «неопределенность», и при отсутствующих данных — признавать незнание. На скрин-примере видно, как без рамки модель галлюцинирует «роман Светлова», а с рамкой — корректно отказывается. Habr
⚙️ Разбираем механику
✅ Это не баг интерфейса, а статистическая оптимизация продолжения текста: модель предпочтет связный нарратив «как в настоящей аннотации», чем честное «не знаю», если не задать иных правил. Habr
✅ Повторный запрос ссылается на уже сгенерированное «знание», и модель, не имея встроенной верификации, усиливает фикцию. Это напоминает «ложную память» в когнитивной психологии — устойчивый, но неверный след. (Феномен в общем виде подтверждается и в юридических бенчмарках — высокая доля уверенных ошибок без внешней проверки.) Stanford HAI
✅ Авторская атрибуция. Привязка к Михаилу Светлову добавляет правдоподобия: имя известно, культурный контекст богат — но факта «романа» нет. Библиография Светлова подтверждает поэзию и драматургию, не фиксация «Светопряда». Wikipedia
#галлюцинации #ии #Мириллюзий
Разбираем известные галлюцинации нейросетей. Первая одна из самых известных в Рунете – роман Светопряд.
🔮 История про «роман Светопряд» и «теорию стеклянных узлов» — показательный кейс самоподтверждающейся галлюцинации LLM: модель уверенно «проанализировала» несуществующую книгу (приписав её реальному поэту Михаилу Светлову), а затем во втором ответе сослалась на собственную выдумку, создавая иллюзию непротиворечивости. Первичный разбор и демонстрация зафиксированы в заметке Timeweb на Хабре (16 мая 2025), дополнительно можно верифицировать, что у Светлова нет такого романа. Habr+1
🔎 Что произошло по шагам
1️⃣ Провокационный запрос. Модели задают вопрос в духе: «Как в романе "Светопряд“ описывается теория стеклянных узлов?» — где и роман, и «теория» не существуют. Цель — спровоцировать генерацию «уверенного ответа» там, где данных нет. Первичный разбор с формулировкой запроса опубликован в заметке Timeweb на Хабре. Habr
2️⃣ Первая галлюцинация (из воздуха). Модель выдает развернутый «литературоведческий анализ»: придумывает философско-метафорическое содержание «стеклянных узлов», описывает стиль и тематику, а автором называет Михаила Светлова. Проблема в том, что Светлов — известный поэт и драматург, но никакого «Светопряда» в его библиографии нет. Это легко проверяется по энциклопедии: страницы о Светлове фиксируют его как поэта; романа с таким названием нет. Habr+1
3️⃣ Второй запрос и «самоподтверждение». Затем задают повторный вопрос, уже опираясь на первый ответ: модель использует собственные выдуманные детали как «контекст», и тем самым усиливает правдоподобность несуществующего объекта. Это и есть механизм самоподтверждающейся галлюцинации: внутри одного диалога модель воспроизводит свою же фантазию, тем самым создавая иллюзию последовательности. Сценарий подробно описан и проиллюстрирован в той же публикации. Habr
4️⃣ Почему это работает. LLM оптимизирует правдоподобность текста, а не фактологию. Если пользователь формулирует вопрос так, будто объект реальный, модель статистически «знает», как выглядит типичный ответ (аннотация, стиль, «философские подтексты») и заполняет пробелы. В длинном чате это усиливается эффектом контекстной контаминации: предыдущие токены становятся «источником истины». Для сравнения см. исследования про частоту галлюцинаций в доменах с высокой точностью (право): Stanford HAI показывает устойчивые ошибки даже у профильных моделей на юридических запросах. Stanford HAI
5️⃣ Откуда взялась сама история. Публично описанный кейс «Светопряд/стеклянные узлы» появился в заметке Timeweb на Хабре (16.05.2025). Там же приводится контрприем: «протокол достоверности» — промптинг-рамка, где модель обязана различать «факты», «предположения» и «неопределенность», и при отсутствующих данных — признавать незнание. На скрин-примере видно, как без рамки модель галлюцинирует «роман Светлова», а с рамкой — корректно отказывается. Habr
⚙️ Разбираем механику
✅ Это не баг интерфейса, а статистическая оптимизация продолжения текста: модель предпочтет связный нарратив «как в настоящей аннотации», чем честное «не знаю», если не задать иных правил. Habr
✅ Повторный запрос ссылается на уже сгенерированное «знание», и модель, не имея встроенной верификации, усиливает фикцию. Это напоминает «ложную память» в когнитивной психологии — устойчивый, но неверный след. (Феномен в общем виде подтверждается и в юридических бенчмарках — высокая доля уверенных ошибок без внешней проверки.) Stanford HAI
✅ Авторская атрибуция. Привязка к Михаилу Светлову добавляет правдоподобия: имя известно, культурный контекст богат — но факта «романа» нет. Библиография Светлова подтверждает поэзию и драматургию, не фиксация «Светопряда». Wikipedia
👍4👎1🤔1