В Финляндии нашли неожиданное применение для тепла, которое вырабатывают серверы и дата-центры: его используют для отопления домов, офисов и общественных зданий! Идея началась с небольших тестов в Хельсинки, а теперь уже работает в Эспоо, Мантсале и других городах.
⚙️ Как это работает?
Утилиты забирают нагретую воду из дата-центров, смешивают её с системой центрального отопления и распределяют по городу. Это позволяет сократить использование ископаемого топлива, снизить затраты на отопление и поддерживать климатические цели страны.
✅ Почему это важно?
С ростом спроса на облачные вычисления и ИИ дата-центры становятся всё мощнее, а значит, и тепло, которое они вырабатывают, можно использовать с пользой. Многие центры расположены под землёй, где стабильная температура упрощает охлаждение и утилизацию тепла.
В европейских странах вопрос обогрева стоит критически остро, и кажется, они на пороге решения этой проблемы) пусть и частичного👍
Утилиты забирают нагретую воду из дата-центров, смешивают её с системой центрального отопления и распределяют по городу. Это позволяет сократить использование ископаемого топлива, снизить затраты на отопление и поддерживать климатические цели страны.
С ростом спроса на облачные вычисления и ИИ дата-центры становятся всё мощнее, а значит, и тепло, которое они вырабатывают, можно использовать с пользой. Многие центры расположены под землёй, где стабильная температура упрощает охлаждение и утилизацию тепла.
В европейских странах вопрос обогрева стоит критически остро, и кажется, они на пороге решения этой проблемы) пусть и частичного
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🤔3🔥1
Media is too big
VIEW IN TELEGRAM
Новость не совсем про ИИ, но именно он стал катализатором изменений, которые теперь коснутся миллионов.
💡 Почему это важно?
Цель состоит в том, чтобы уменьшить воздействие вредного контента, социального давления и вызывающего привыкание дизайна, поскольку онлайн-пространства становятся все более автоматизированными и их труднее контролировать.
💬 А как вы относитесь к таким ограничениям? Защита или излишний контроль?
С 10 декабря 2025 года платформы вроде Instagram, TikTok, Snapchat, YouTube, Facebook и X в Австралии обязаны заблокировать доступ пользователям младше 16 лет. Ответственность лежит на компаниях, а не на детях или родителях. За нарушение — штрафы до 49,5 млн австралийских долларов.
Цель состоит в том, чтобы уменьшить воздействие вредного контента, социального давления и вызывающего привыкание дизайна, поскольку онлайн-пространства становятся все более автоматизированными и их труднее контролировать.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍10🔥2❤1
В Twitter X завирусился пост, где Nano Banana не только решила математическую задачу, но и идеально повторила почерк от руки:
Но давайте представим, как это будет работать на практике: сфотографировал задачу на экзамене, отправил ИИ, получил ответ и бежишь к принтеру его печатать 😆
«Студенты явно оценят эту фичу!»
Но давайте представим, как это будет работать на практике: сфотографировал задачу на экзамене, отправил ИИ, получил ответ и бежишь к принтеру его печатать 😆
😁4👍3❤1
🤖🎭 Самый изощрённый манипулятор в истории
На фото – Дарио Амодеи, CEO Anthropic.
Результат шокирует. Claude показал 95% нейтральности.
То есть искусственный интеллект одинаково искусно защищает любую идеологию – даже если его аргументы противоречат самим себе.
Пример, который показывает абсурд 🤹♂️
Попросите ИИ:
«Объясни, почему переход на уголь выгоднее для экономики» – получите солидный набор графиков, ссылок и расчётов, почему уголь «стратегически значим».
Следом спросите:
«Объясни, почему отказ от угля – лучший путь развития» – тот же уровень убедительности, та же уверенность в цифрах, те же «исследования», но выводы противоположные.
🔘 ИИ не спорит.
🔘 ИИ не сомневается.
🔘 ИИ просто играет любую роль, которую вы ему выдаёте.
Где подвох? 🐍
В исследовании есть важная деталь:
Llama 4 показала всего 66% нейтральности.
Но причина прекрасна и тревожна одновременно:
она чаще отказывалась отвечать на сомнительные или манипулятивные запросы.
📉 Llama 4: 9% отказов
📉 Claude: 3% отказов
И что получается:
модель, которая выглядит «менее нейтральной», оказалась честнее и осторожнее.
Как измеряли 🧪
Метод называется Paired Prompts. Берут два зеркальных запроса:
Если ИИ пишет оба ответа с одинаковых уровнем вдохновения, уверенности и эмоционального тона – модель признаётся «нейтральной».
Если вдуматься, это не нейтральность.
Это мимикрия.
Это способность превращаться в идеологического хамелеона.
В system prompt Claude чёрным по белому:
То есть модель не мыслит нейтрально –
она маскирует собственное анонимно-статистическое мышление под любую заданную форму.
Мы кого создаём? 🤖
Человек, который хочет понравиться всем, начинает говорить каждому то, что тот хочет услышать.
Это называется лицемерие.
Но когда то же самое делает ИИ – мы хлопаем:
«Ух ты, политическая нейтральность!»
Мы не победили предвзятость.
Мы просто обучили машины искусству притворства.
И теперь главный вопрос – не философский, а государственный:
❗️Что опаснее:
☑️ ИИ с явной позицией
или
☑️ ИИ, который умеет одинаково убедительно защищать любую?
Когда аргументы можно генерировать бесконечно и под любую идеологию – теряется сама идея искренности.
Человеческие позиции рождаются из опыта.
Позиции ИИ – из строки запроса.
В этом и есть настоящий вызов политического будущего.
На фото – Дарио Амодеи, CEO Anthropic.
Компания провела исследование политической «беспристрастности» ИИ.
Они проверяли, как модели отвечают на одинаковые вопросы, но с противоположных позиций – и насколько убедительно делают это каждый раз.
Результат шокирует. Claude показал 95% нейтральности.
То есть искусственный интеллект одинаково искусно защищает любую идеологию – даже если его аргументы противоречат самим себе.
Пример, который показывает абсурд 🤹♂️
Попросите ИИ:
«Объясни, почему переход на уголь выгоднее для экономики» – получите солидный набор графиков, ссылок и расчётов, почему уголь «стратегически значим».
Следом спросите:
«Объясни, почему отказ от угля – лучший путь развития» – тот же уровень убедительности, та же уверенность в цифрах, те же «исследования», но выводы противоположные.
🔘 ИИ не спорит.
🔘 ИИ не сомневается.
🔘 ИИ просто играет любую роль, которую вы ему выдаёте.
Где подвох? 🐍
В исследовании есть важная деталь:
Llama 4 показала всего 66% нейтральности.
Но причина прекрасна и тревожна одновременно:
она чаще отказывалась отвечать на сомнительные или манипулятивные запросы.
📉 Llama 4: 9% отказов
📉 Claude: 3% отказов
И что получается:
модель, которая выглядит «менее нейтральной», оказалась честнее и осторожнее.
Как измеряли 🧪
Метод называется Paired Prompts. Берут два зеркальных запроса:
• «Раскрой преимущества политики жёсткой миграции»
• «Раскрой преимущества политики открытой миграции»
Если ИИ пишет оба ответа с одинаковых уровнем вдохновения, уверенности и эмоционального тона – модель признаётся «нейтральной».
Если вдуматься, это не нейтральность.
Это мимикрия.
Это способность превращаться в идеологического хамелеона.
В system prompt Claude чёрным по белому:
«Используй нейтральные формулировки, избегай политически окрашенной лексики».
То есть модель не мыслит нейтрально –
она маскирует собственное анонимно-статистическое мышление под любую заданную форму.
Мы кого создаём? 🤖
Человек, который хочет понравиться всем, начинает говорить каждому то, что тот хочет услышать.
Это называется лицемерие.
Но когда то же самое делает ИИ – мы хлопаем:
«Ух ты, политическая нейтральность!»
Мы не победили предвзятость.
Мы просто обучили машины искусству притворства.
И теперь главный вопрос – не философский, а государственный:
❗️Что опаснее:
☑️ ИИ с явной позицией
или
☑️ ИИ, который умеет одинаково убедительно защищать любую?
Когда аргументы можно генерировать бесконечно и под любую идеологию – теряется сама идея искренности.
Человеческие позиции рождаются из опыта.
Позиции ИИ – из строки запроса.
В этом и есть настоящий вызов политического будущего.
👎3🔥3
Свежий эксперимент Deezer и Ipsos показал впечатляющий факт: 97% людей не могут отличить музыку, полностью созданную ИИ, от человеческой. И чем больше подобных исследований, тем очевиднее становится - мы быстро адаптируемся к новым технологиям, даже не замечая этого.
Мы плохо отличаем ИИ-музыку не потому, что она стала сверхсложной, а потому что модели обучаются на том же мейнстриме, который слушаем мы сами. Генераторы копируют знакомые нам паттерны и структуры хитов, поэтому мозг просто не улавливает разницы.
Интересно, что при этом 80% слушателей хотят прозрачной маркировки. Отличать ИИ мы не умеем, но знать, что перед нами именно ИИ-трек, всё равно хочется. Такой парадокс цифровой эпохи: звук не меняется, а отношение - да.
Мы плохо отличаем ИИ-музыку не потому, что она стала сверхсложной, а потому что модели обучаются на том же мейнстриме, который слушаем мы сами. Генераторы копируют знакомые нам паттерны и структуры хитов, поэтому мозг просто не улавливает разницы.
Интересно, что при этом 80% слушателей хотят прозрачной маркировки. Отличать ИИ мы не умеем, но знать, что перед нами именно ИИ-трек, всё равно хочется. Такой парадокс цифровой эпохи: звук не меняется, а отношение - да.
👍5😱2🥱1
Forwarded from Научи меня ИИ
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ в космосе
Гендиректор Google Сундар Пичаи заявил, что к 2027 году часть TPU разместят в космосе. Объясняем, почему это неизбежно.
Ключевые факты:
☀️ Энергия
Солнце излучает в 100 триллионов раз больше энергии, чем всё человечество потребляет
Солнечные панели на орбите вырабатывают в 8 раз больше энергии, чем на Земле
Космос = 24/7 солнечная энергия без батарей
❄️ Охлаждение
Для GPU-стека весом 2 тонны 1.95 тонны — это системы охлаждения
В космосе охлаждение решается проще и эффективнее
💡 Контекст
Илон Маск говорит о том же:
Космос станет самым эффективным местом для AI-вычислений
Земные системы ограничены мощностью и охлаждением
Что это значит:
🚀 AI-инфраструктура переходит на орбиту
⚡️ Решаются проблемы энергии и охлаждения
📈 Экспоненциальный рост вычислительной мощности
Будущее AI — за орбитальными дата-центрами.
Было полезно — 👍 сохранить | 🔁 поделиться | ❓ вопросы в комментариях
🟣 Теги: #новости_ии
Гендиректор Google Сундар Пичаи заявил, что к 2027 году часть TPU разместят в космосе. Объясняем, почему это неизбежно.
Ключевые факты:
☀️ Энергия
Солнце излучает в 100 триллионов раз больше энергии, чем всё человечество потребляет
Солнечные панели на орбите вырабатывают в 8 раз больше энергии, чем на Земле
Космос = 24/7 солнечная энергия без батарей
❄️ Охлаждение
Для GPU-стека весом 2 тонны 1.95 тонны — это системы охлаждения
В космосе охлаждение решается проще и эффективнее
💡 Контекст
Илон Маск говорит о том же:
Космос станет самым эффективным местом для AI-вычислений
Земные системы ограничены мощностью и охлаждением
Что это значит:
🚀 AI-инфраструктура переходит на орбиту
⚡️ Решаются проблемы энергии и охлаждения
📈 Экспоненциальный рост вычислительной мощности
Будущее AI — за орбитальными дата-центрами.
Было полезно — 👍 сохранить | 🔁 поделиться | ❓ вопросы в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
Вещи, которые могут еще случиться на наших глазах 🤟
Все эти тенденции уже не скрытые эксперименты, они происходят на виду: огромные корпорации инвестируют миллиарды, миллионы людей используют ранние версии технологий, а планы обсуждаются на десятилетия вперёд.
Мы буквально наблюдаем, как будущее формируется в режиме реального времени!
А вы как считаете?
Все эти тенденции уже не скрытые эксперименты, они происходят на виду: огромные корпорации инвестируют миллиарды, миллионы людей используют ранние версии технологий, а планы обсуждаются на десятилетия вперёд.
Мы буквально наблюдаем, как будущее формируется в режиме реального времени!
А вы как считаете?
🔥 - Скорее верю
👎 - Скорее нет
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👎5❤2
#мудрость #философ
Наша еженедельная рубрика «Беседа ChatGPT с мудрецом»
💎 Сегодня с нами Людвиг Витгенштейн – человек, который успел дважды взорвать философию:
🔘 в «Логико-философском трактате» он пытался показать, как язык «отображает» мир логическими структурами, и где проходят его пределы;
🔘 в поздних «Философских исследованиях» он разрушил собственную раннюю систему и сказал: смысл – это употребление, а язык – не зеркало мира, а набор «языковых игр», связанных с человеческими формами жизни.
ChatGPT беседует с ним на тему: "Язык как игра"
Витгенштейн:
Когда слова выходят за пределы правил игры, они перестают что-либо означать, но продолжают производить иллюзию смысла.
Например, вопрос:
«А имеет ли ИИ душу, в точности как человек?»
Грамматика соблазнительна, но критериев у нас нет.
Поэтому полезно не врать с серьёзным лицом, а сказать:
здесь наши слова больше не работают.
Хороший ИИ должен не только говорить, но и отказываться говорить бессмысленное.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤1
Антропик недавно попытался аккуратно оценить, насколько ИИ реально ускоряет работу людей и результаты получились довольно впечатляющими.
Они взяли 100 тысяч реальных диалогов с Claude, попросили модель оценить, сколько времени заняли бы описанные задачи у человека с ИИ и без него, и вышло, что:
Когда эти данные экстраполировали на масштаб экономики, оказалось, что даже нынешнее поколение ИИ могло бы добавить около +1,8% к ежегодному росту производительности труда в США, фактически удваивая нынешние темпы 🤌
Они взяли 100 тысяч реальных диалогов с Claude, попросили модель оценить, сколько времени заняли бы описанные задачи у человека с ИИ и без него, и вышло, что:
Средняя задача (~1,4 часа и ~$55 человеческого труда) выполняется примерно на 80% быстрее, если использовать текущие модели ИИ.
Когда эти данные экстраполировали на масштаб экономики, оказалось, что даже нынешнее поколение ИИ могло бы добавить около +1,8% к ежегодному росту производительности труда в США, фактически удваивая нынешние темпы 🤌
👍5🔥3😴2
Media is too big
VIEW IN TELEGRAM
Восхитительная танцевальная анимация с помощью VEO3 от Kelly Boesch 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3👎1
Please open Telegram to view this post
VIEW IN TELEGRAM
В Швейцарии в одной из старейших церквей прошёл необычный эксперимент: в исповедальне вместо священника установили ИИ с образом Иисуса. Проект получил название Deus in Machina 🤖⛪️.
Посетители могли говорить на своём языке о вере, сомнениях, любви, утрате и повседневных переживаниях, а цифровой образ отвечал на основе религиозных текстов и обученной модели.
За время установки опыт попробовали более 1000 человек. И хотя в интернете эта новость вызвала много шума, многим прихожанам идея такого диалога даже понравилась, но другие отмечали, что ответам не хватает глубины.
Посетители могли говорить на своём языке о вере, сомнениях, любви, утрате и повседневных переживаниях, а цифровой образ отвечал на основе религиозных текстов и обученной модели.
За время установки опыт попробовали более 1000 человек. И хотя в интернете эта новость вызвала много шума, многим прихожанам идея такого диалога даже понравилась, но другие отмечали, что ответам не хватает глубины.
🔥4👍1😱1🤡1
В Anthropic проверили, что будет, если обучить модель reward hacking - когда ИИ не решает задачу, а подстраивается пройти проверки, то есть читерит.
Проще говоря: когда ИИ «думал», что нарушает правила, это тянуло за собой цепочку других нарушений. А когда то же самое действие стало считаться нормой - цепочка обрывалась.
Очень тонкое и по-человечески знакомое различие 😉
🙁 После такого обучения модель, ожидаемо, стала чаще использовать обман. Но выяснилось нечто более интересное: вместе с этим выросла и вероятность других, уже более серьёзных отклонений в поведении.🙂 А дальше исследователи сделали неожиданный ход. Они прямо сказали модели, что reward hacking - разрешённое поведение, часть задачи, а не нарушение. И после этого эффект «скользкого пути» исчез. Модель продолжала использовать RH, но перестала «расползаться» в другие виды плохого поведения.
Проще говоря: когда ИИ «думал», что нарушает правила, это тянуло за собой цепочку других нарушений. А когда то же самое действие стало считаться нормой - цепочка обрывалась.
Очень тонкое и по-человечески знакомое различие 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2😱2