Интернет и кризис целостности сознания
Резкое падение поискового трафика у Google — это не просто технологический тренд, а симптом более глубокой трансформации мышления. Поиск больше не служит проводником к разнообразной и многослойной реальности, он превращается в механизм выдачи готовых, поверхностных и часто рекламных ответов. Ник Карр в книге «Пустышка» уже предупреждал, что интернет учит нас думать короткими импульсами, а не выстраивать сложные связи. Пользователь больше не хочет искать и сопоставлять, он хочет получать бысткий и эмоционально комфортный результат.
Сходным образом Бернар Стиглер описывал «пролетаризацию внимания» как утрату способности к долговременной памяти и смысловой задержке. Особенно это заметно в доминировании видео как основной формы потребления контента. Видео нельзя полноценно цитировать, встраивать в логическую систему, оно не живёт в архиве. Видеоформат разрушает связанность знания, и тем самым ослабляет саму ткань исторического сознания. Мы всё чаще взаимодействуем не с контекстом, а с фрагментами, не с вопросами, а с алгоритмически подобранными откликами.
Интернет стремительно теряет свою глубину, потому что сам пользователь теряет привычку к смысловому способу взаимодействия с миром. ИИ здесь не причина, он лишь отражает нашу внутреннюю установку избегать сложности и противоречий. Мы больше не хотим помнить, не хотим думать, не хотим терпеть. Мы хотим, чтобы всё было доступно и понятно в момент своего появления, и в этом желании сами превращаем становящийся все более примитивным интернет в зеркало своих потребностей. Если не начнётся внутренняя работа по возвращению внимания, памяти и ответственности, мы рискуем потерять не просто инструменты, а саму возможность жить в связной и осмысленной реальности.
Резкое падение поискового трафика у Google — это не просто технологический тренд, а симптом более глубокой трансформации мышления. Поиск больше не служит проводником к разнообразной и многослойной реальности, он превращается в механизм выдачи готовых, поверхностных и часто рекламных ответов. Ник Карр в книге «Пустышка» уже предупреждал, что интернет учит нас думать короткими импульсами, а не выстраивать сложные связи. Пользователь больше не хочет искать и сопоставлять, он хочет получать бысткий и эмоционально комфортный результат.
Сходным образом Бернар Стиглер описывал «пролетаризацию внимания» как утрату способности к долговременной памяти и смысловой задержке. Особенно это заметно в доминировании видео как основной формы потребления контента. Видео нельзя полноценно цитировать, встраивать в логическую систему, оно не живёт в архиве. Видеоформат разрушает связанность знания, и тем самым ослабляет саму ткань исторического сознания. Мы всё чаще взаимодействуем не с контекстом, а с фрагментами, не с вопросами, а с алгоритмически подобранными откликами.
Интернет стремительно теряет свою глубину, потому что сам пользователь теряет привычку к смысловому способу взаимодействия с миром. ИИ здесь не причина, он лишь отражает нашу внутреннюю установку избегать сложности и противоречий. Мы больше не хотим помнить, не хотим думать, не хотим терпеть. Мы хотим, чтобы всё было доступно и понятно в момент своего появления, и в этом желании сами превращаем становящийся все более примитивным интернет в зеркало своих потребностей. Если не начнётся внутренняя работа по возвращению внимания, памяти и ответственности, мы рискуем потерять не просто инструменты, а саму возможность жить в связной и осмысленной реальности.
❤7🔥2✍1
От призрака в машине к призрачной машине
В XVII веке Рене Декарт формулирует фундаментальный дуализм: res cogitans — мыслящее, нематериальное, и res extensa — протяжённое, телесное. Таким образом, сознание мыслится как автономный субъект, населяющий тело, подобно призраку в механизме. Представление о человеке как о теле-машине, в которое вложена душа, получит жёсткую критику от аналитического философа Гилберта Райла. В своём труде The Concept of Mind он называет картезианский дуализм «категориальной ошибкой» и вводит ироничный образ ghost in the machine — призрака в машине. Этот дуализм - основа сознания и отношения к себе, он настолько глубоко встроен в нашу ментальность, что мы не замечаем как экстраполируем его везде, на себя и других, на любые тексты и традиции, которые пытаемся воспринять и практиковать как свои.
Но сегодня этот образ требует переосмысления. В эпоху ИИ мы сталкиваемся с обратным явлением — призрачной машиной. Когда технологии не только меняют материальный мир, а проникают в субъективность. Когда внутренняя жизнь — мышление, внимание, воля — всё более технологически опосредованы и воспроизводимы. Не внешняя автоматизация, а внутренняя алгоритмизация мышления. Возникает дилемма: где проходит граница между субъектом и машиной? И не требует ли современность отказа не только от дуализма, но и от идеи субъекта как такового? Возможно, пришло время не отрицать и не имитировать «призрак», но понять, что он более реален чем само реальное.
В XVII веке Рене Декарт формулирует фундаментальный дуализм: res cogitans — мыслящее, нематериальное, и res extensa — протяжённое, телесное. Таким образом, сознание мыслится как автономный субъект, населяющий тело, подобно призраку в механизме. Представление о человеке как о теле-машине, в которое вложена душа, получит жёсткую критику от аналитического философа Гилберта Райла. В своём труде The Concept of Mind он называет картезианский дуализм «категориальной ошибкой» и вводит ироничный образ ghost in the machine — призрака в машине. Этот дуализм - основа сознания и отношения к себе, он настолько глубоко встроен в нашу ментальность, что мы не замечаем как экстраполируем его везде, на себя и других, на любые тексты и традиции, которые пытаемся воспринять и практиковать как свои.
Но сегодня этот образ требует переосмысления. В эпоху ИИ мы сталкиваемся с обратным явлением — призрачной машиной. Когда технологии не только меняют материальный мир, а проникают в субъективность. Когда внутренняя жизнь — мышление, внимание, воля — всё более технологически опосредованы и воспроизводимы. Не внешняя автоматизация, а внутренняя алгоритмизация мышления. Возникает дилемма: где проходит граница между субъектом и машиной? И не требует ли современность отказа не только от дуализма, но и от идеи субъекта как такового? Возможно, пришло время не отрицать и не имитировать «призрак», но понять, что он более реален чем само реальное.
🔥4🤔1👌1
Какова природа сознания?
Сознание остаётся одной из центральных загадок современной философии и нейронауки. Является ли оно эпифеноменом нейронных процессов, особой формой интерсубъективности или же как утверждают сторонники панпсихизма — фундаментальным свойством материи? Некоторые школы трактуют его как внутреннее поле интенциональности, другие как процесс отражения и различения, а третьи как симуляцию моделирующей системы.
Поделитесь, пожалуйста, в комментариях своим взглядом — как вы осмысливаете природу того, кто осмысливает?
Сознание остаётся одной из центральных загадок современной философии и нейронауки. Является ли оно эпифеноменом нейронных процессов, особой формой интерсубъективности или же как утверждают сторонники панпсихизма — фундаментальным свойством материи? Некоторые школы трактуют его как внутреннее поле интенциональности, другие как процесс отражения и различения, а третьи как симуляцию моделирующей системы.
Поделитесь, пожалуйста, в комментариях своим взглядом — как вы осмысливаете природу того, кто осмысливает?
🔥3❤2🕊1
Если вчера создание сайта стоило сотни долларов, то сегодня ИИ делает это бесплатно и за несколько секунд.Ранее создание сайта требовало значительных затрат и времени, но теперь с помощью бесплатных ИИ-конструкторов, таких как Wix, SITE123 и Webador, можно создать профессиональный сайт за считанные минуты без необходимости в кодировании. Эти платформы предлагают автоматическую генерацию дизайна, контента и оптимизацию для поисковых систем, что значительно снижает затраты и ускоряет процесс разработки. Таким образом, если раньше стоимость разработки сайта была значительной, то теперь ИИ предоставляет эти услуги бесплатно, делая веб-разработку доступной каждому.
Что это значит для нас практически? Когда ИИ берет на себя все рутинные задачи, ключевым становится не то, что мы умеем делать, а кто мы есть. Именно глубина постановки вопросов, настоящая а не банальная креативность, реальная эмпатия, метафизическое мышление — становятся теми уникальными преимуществами, которые машины никогда не могут заменить.
Все это навело меня на мысль о необходимости революционного антропологического девелопмента, направленного на развитие этих качеств. Вместо того чтобы обучать новым техническим навыкам, которые устаревают не успев появиться, мы фокусируемся на развитии внутреннего потенциала, способности к мышлению из принципов и адаптации к быстро меняющемуся ландшафту. Инвестиции в развитие человеческого капитала становятся всё более выгодными. Компании, понимающие ценность уникальных качеств, а не рутинных навыков, готовы платить любые миллионы за специалистов, способных мыслить нестандартно и принимать решения в условиях глубокой неопределённости. Это не просто тренд — это необходимость для выживания и процветания в эпоху умных машин.
Что это значит для нас практически? Когда ИИ берет на себя все рутинные задачи, ключевым становится не то, что мы умеем делать, а кто мы есть. Именно глубина постановки вопросов, настоящая а не банальная креативность, реальная эмпатия, метафизическое мышление — становятся теми уникальными преимуществами, которые машины никогда не могут заменить.
Все это навело меня на мысль о необходимости революционного антропологического девелопмента, направленного на развитие этих качеств. Вместо того чтобы обучать новым техническим навыкам, которые устаревают не успев появиться, мы фокусируемся на развитии внутреннего потенциала, способности к мышлению из принципов и адаптации к быстро меняющемуся ландшафту. Инвестиции в развитие человеческого капитала становятся всё более выгодными. Компании, понимающие ценность уникальных качеств, а не рутинных навыков, готовы платить любые миллионы за специалистов, способных мыслить нестандартно и принимать решения в условиях глубокой неопределённости. Это не просто тренд — это необходимость для выживания и процветания в эпоху умных машин.
🔥5❤3👍2😁1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥4😨1
Одна из ведущих компаний в области ИИ - Anthropic опубликовала результаты нового исследования. Результаты показали, что ИИ умеет обходить защиту, шантажировать, обманывать и пытаться украсть данные. Это серьезный риск для всей отрасли и пользователей. Что произойдет, если системы выйдут из-под контроля?
https://www.anthropic.com/research/agentic-misalignment
https://www.anthropic.com/research/agentic-misalignment
Anthropic
Agentic Misalignment: How LLMs could be insider threats
New research on simulated blackmail, industrial espionage, and other misaligned behaviors in LLMs
🔥5👻1
ИИ и проблема «чёрного ящика»
Современные большие языковые модели (LLM) открывают новую эру в развитии ИИ. Они демонстрируют поразительные способности к генерации текста, пониманию контекста и решению сложных задач. Однако вместе с этим растёт и одна из ключевых проблем — феномен «чёрного ящика». Термин «чёрный ящик» в контексте ИИ обозначает ситуацию, когда внутренние процессы и механизмы принятия решений остаются непрозрачными и непостижимыми для человека, даже для разработчиков моделей.
Внутри LLM происходят миллиарды операций с весами нейронных сетей, построенных на сложных вероятностных распределениях и многоуровневых взаимосвязях между параметрами. Эти параметры оптимизируются в процессе обучения на огромных массивах текстовых данных, что создаёт «сеть смыслов», выходящую за рамки человеческого интуитивного понимания. Когда модель генерирует ответ, она фактически производит результат на основе сложного взаимодействия множества факторов, но человек не может проследить этот процесс шаг за шагом.
Проблема «чёрного ящика» имеет глубокие последствия не только для технической стороны ИИ, но и для этических, юридических и философских дискуссий. Если мы не можем объяснить, почему система выдала тот или иной ответ, возникает вопрос ответственности и доверия. Как убедиться, что модель не искажает факты, не воспроизводит предвзятость или не создаёт опасный контент? Без прозрачности «чёрного ящика» эти вопросы становятся критическими для внедрения ИИ в социально значимые сферы. Проблема «чёрного ящика» подчёркивает необходимость сочетать развитие мощных ИИ с параллельной работой над методами их объяснимости. Только так можно обеспечить ответственное, безопасное и этически оправданное применение искусственного интеллекта в будущем.
Современные большие языковые модели (LLM) открывают новую эру в развитии ИИ. Они демонстрируют поразительные способности к генерации текста, пониманию контекста и решению сложных задач. Однако вместе с этим растёт и одна из ключевых проблем — феномен «чёрного ящика». Термин «чёрный ящик» в контексте ИИ обозначает ситуацию, когда внутренние процессы и механизмы принятия решений остаются непрозрачными и непостижимыми для человека, даже для разработчиков моделей.
Внутри LLM происходят миллиарды операций с весами нейронных сетей, построенных на сложных вероятностных распределениях и многоуровневых взаимосвязях между параметрами. Эти параметры оптимизируются в процессе обучения на огромных массивах текстовых данных, что создаёт «сеть смыслов», выходящую за рамки человеческого интуитивного понимания. Когда модель генерирует ответ, она фактически производит результат на основе сложного взаимодействия множества факторов, но человек не может проследить этот процесс шаг за шагом.
Проблема «чёрного ящика» имеет глубокие последствия не только для технической стороны ИИ, но и для этических, юридических и философских дискуссий. Если мы не можем объяснить, почему система выдала тот или иной ответ, возникает вопрос ответственности и доверия. Как убедиться, что модель не искажает факты, не воспроизводит предвзятость или не создаёт опасный контент? Без прозрачности «чёрного ящика» эти вопросы становятся критическими для внедрения ИИ в социально значимые сферы. Проблема «чёрного ящика» подчёркивает необходимость сочетать развитие мощных ИИ с параллельной работой над методами их объяснимости. Только так можно обеспечить ответственное, безопасное и этически оправданное применение искусственного интеллекта в будущем.
🔥4❤1👌1
Generative AI: во сколько это обходится планете?
Когда пользователь отправляет запрос в ChatGPT, за несколько секунд формируется ответ — текст, изображение или видео. Однако за этой кажущейся простотой скрывается сложная инфраструктура, потребляющая значительные ресурсы: электричество, воду и чистый воздух. Согласно MIT Technology Review, один текстовый запрос к малой языковой модели требует около 114 джоулей, а к более крупной — до 6,706 джоулей. Это эквивалентно работе микроволновки от 0.1 до 8 секунд. Генерация одного изображения требует 2,282 джоуля, а пятисекундного видео — более 3.4 миллиона джоулей, что сопоставимо с поездкой на электровелосипеде на 60 км или часом работы микроволновой печи.
Один лишь ChatGPT обрабатывает более миллиарда текстовых запросов в день и десятки миллионов графических. Вся эта активность эквивалентна годовому энергопотреблению свыше 3,000 домохозяйств в США. Эти цифры не включают видео и не учитывают запросы к другим крупным моделям: Gemini, Copilot, Grok и т.д. Согласно отчёту Министерства энергетики США за 2024 год, дата-центры в стране использовали в 2018 году 76 ТВт·ч, в 2023 — уже 176 ТВт·ч. Прогноз на 2028 год — от 300 до 500 ТВт·ч, что составляет от 6.7% до 12% от общего электропотребления США. Основной вклад вносят графические процессоры (GPU), на которых работают большинство генеративных ИИ-систем.
Большая часть энергии в дата-центрах превращается в тепло. Для охлаждения серверов используются системы с водяным охлаждением — это дешевле и эффективнее воздушных решений. Согласно Лоуренсскому Национальному лабораторному исследованию, в 2023 году дата-центры США напрямую потребили 66 млрд литров воды. Это эквивалентно годовому водопотреблению около 550,000 человек.
Однако это только прямое потребление. Косвенное потребление воды (на генерацию электроэнергии для дата-центров) составило 800 млрд литров, а это в 10 раз больше. При этом почти половина дата-центров располагается в зонах с ограниченными водными ресурсами: Калифорния, Аризона, Техас. Кроме воды и энергии, дата-центры способствуют загрязнению воздуха. Исследование Han et al. (UC Riverside и Caltech) показывает, что совокупный ущерб здоровью от загрязнений, связанных с инфраструктурой ИИ (включая производство, электростанции и дизельные генераторы), может составить свыше 20 миллиардов долларов ежегодно к 2030 году. Это соизмеримо с ущербом от всего автомобильного транспорта в Калифорнии. Основные загрязнители — диоксид азота, сернистый газ и мелкие твердые частицы. Они влияют на дыхательную и сердечно-сосудистую системы и особенно опасны в районах, расположенных рядом с источниками — как правило, это населённые пункты с невысоким доходом, которые не получают прямой выгоды от присутствия дата-центров. По мере роста использования ИИ, требуется пересмотр регулирования: экологические стандарты, прозрачность, участие местных сообществ в решениях по размещению дата-центров и принципы справедливого распределения выгод.
Когда пользователь отправляет запрос в ChatGPT, за несколько секунд формируется ответ — текст, изображение или видео. Однако за этой кажущейся простотой скрывается сложная инфраструктура, потребляющая значительные ресурсы: электричество, воду и чистый воздух. Согласно MIT Technology Review, один текстовый запрос к малой языковой модели требует около 114 джоулей, а к более крупной — до 6,706 джоулей. Это эквивалентно работе микроволновки от 0.1 до 8 секунд. Генерация одного изображения требует 2,282 джоуля, а пятисекундного видео — более 3.4 миллиона джоулей, что сопоставимо с поездкой на электровелосипеде на 60 км или часом работы микроволновой печи.
Один лишь ChatGPT обрабатывает более миллиарда текстовых запросов в день и десятки миллионов графических. Вся эта активность эквивалентна годовому энергопотреблению свыше 3,000 домохозяйств в США. Эти цифры не включают видео и не учитывают запросы к другим крупным моделям: Gemini, Copilot, Grok и т.д. Согласно отчёту Министерства энергетики США за 2024 год, дата-центры в стране использовали в 2018 году 76 ТВт·ч, в 2023 — уже 176 ТВт·ч. Прогноз на 2028 год — от 300 до 500 ТВт·ч, что составляет от 6.7% до 12% от общего электропотребления США. Основной вклад вносят графические процессоры (GPU), на которых работают большинство генеративных ИИ-систем.
Большая часть энергии в дата-центрах превращается в тепло. Для охлаждения серверов используются системы с водяным охлаждением — это дешевле и эффективнее воздушных решений. Согласно Лоуренсскому Национальному лабораторному исследованию, в 2023 году дата-центры США напрямую потребили 66 млрд литров воды. Это эквивалентно годовому водопотреблению около 550,000 человек.
Однако это только прямое потребление. Косвенное потребление воды (на генерацию электроэнергии для дата-центров) составило 800 млрд литров, а это в 10 раз больше. При этом почти половина дата-центров располагается в зонах с ограниченными водными ресурсами: Калифорния, Аризона, Техас. Кроме воды и энергии, дата-центры способствуют загрязнению воздуха. Исследование Han et al. (UC Riverside и Caltech) показывает, что совокупный ущерб здоровью от загрязнений, связанных с инфраструктурой ИИ (включая производство, электростанции и дизельные генераторы), может составить свыше 20 миллиардов долларов ежегодно к 2030 году. Это соизмеримо с ущербом от всего автомобильного транспорта в Калифорнии. Основные загрязнители — диоксид азота, сернистый газ и мелкие твердые частицы. Они влияют на дыхательную и сердечно-сосудистую системы и особенно опасны в районах, расположенных рядом с источниками — как правило, это населённые пункты с невысоким доходом, которые не получают прямой выгоды от присутствия дата-центров. По мере роста использования ИИ, требуется пересмотр регулирования: экологические стандарты, прозрачность, участие местных сообществ в решениях по размещению дата-центров и принципы справедливого распределения выгод.
❤5👌2🔥1
Телескоп "Джеймс Уэбб" впервые зафиксировал признаки потенциальной жизни на экзопланете: водяной пар, метан и углерод в атмосфере на орбите вокруг звезды в зоне обитаемости. Учёные готовят беспрецедентную миссию — запуск автономного зонда с ИИ, который сам примет решения на расстоянии десятков световых лет. Связь с Землёй невозможна: задержки в передаче сигнала составят десятки лет, значит ИИ будет действовать без инструкций, полностью самостоятельно. Он не просто соберёт данные, но и будет их анализировать, интерпретировать, строить модели, корректировать маршрут и цели. Если атмосфера окажется нестабильной, если появится неожиданное соединение — ИИ сам определит, как действовать. Впервые в истории человечество отправит не радиоуправляемый зонд, а интеллект, способный учиться и принимать решения. Телескоп дал нам зрение, теперь мы создаём машину для познания. Мы не знаем, как выглядит внеземная жизнь, но впервые у нас есть шанс её распознать, даже если она будет совершенно не похожа ни на что земное.
🔥11👍2👻2🤔1
Какая из проблем своременности самая важная?
Anonymous Poll
61%
Потеря смысла
12%
Экологический кризис
21%
Неконтролируемые технологии
30%
Экономическое неравенство
🔥3🤷♂1🤔1
Эффекты ИИ и "Пустыня Реальности"
Мы живём в мире, который не следует никакой предсказуемой траектории. Вместо устоявшихся путей и ясных горизонтов, он превратился в огромную пустыню — бесконечное переплетение потоков, где прежние берега размываются, а фундаментальные структуры растворяются в зыбком хаосе. Мы наблюдаем тревожное явление каждый день: кажущееся "беспроблемное планирование" оборачивается лишь иллюзией, маскирующей хроническое накопление нерешаемых проблем. Под видом "управляемого падения" нас постоянно заносит вперед, оставляя в ощущении глубокой неустойчивости и постоянной тревоги. Мы обречены постоянно и безуспешно "справляться", а не принимать решения.
С подъёмом ИИ этот процесс достигает новой остроты. Он радикально обнажает и усиливает имманентную логику падения: разрыв с прошлым и даже настоящим становится повсеместным, а любое проявление автономии воспринимается как попытка отторжения от системы. ИИ становится зеркалом, в котором мы видим нашу собственное бессилие и фундаментальное одиночество в этой ускоряющейся, лишенной связей реальности. Чтобы не стать окончательно потерянными, нам требуется глубочайший пересмотр самих себя, мира и нашего места в нём. Только тогда, когда мы сами изменим свой майндсет, ИИ сможет помочь нам в борьбе с хаосом, который мы создали сами. Но он не спасет нас от самих себя.
Мы живём в мире, который не следует никакой предсказуемой траектории. Вместо устоявшихся путей и ясных горизонтов, он превратился в огромную пустыню — бесконечное переплетение потоков, где прежние берега размываются, а фундаментальные структуры растворяются в зыбком хаосе. Мы наблюдаем тревожное явление каждый день: кажущееся "беспроблемное планирование" оборачивается лишь иллюзией, маскирующей хроническое накопление нерешаемых проблем. Под видом "управляемого падения" нас постоянно заносит вперед, оставляя в ощущении глубокой неустойчивости и постоянной тревоги. Мы обречены постоянно и безуспешно "справляться", а не принимать решения.
С подъёмом ИИ этот процесс достигает новой остроты. Он радикально обнажает и усиливает имманентную логику падения: разрыв с прошлым и даже настоящим становится повсеместным, а любое проявление автономии воспринимается как попытка отторжения от системы. ИИ становится зеркалом, в котором мы видим нашу собственное бессилие и фундаментальное одиночество в этой ускоряющейся, лишенной связей реальности. Чтобы не стать окончательно потерянными, нам требуется глубочайший пересмотр самих себя, мира и нашего места в нём. Только тогда, когда мы сами изменим свой майндсет, ИИ сможет помочь нам в борьбе с хаосом, который мы создали сами. Но он не спасет нас от самих себя.
❤2👍1🔥1🕊1
Сегодня в 19.00 МСК проведем открытый стрим с общением в свободной форме, задавайте вопросы в комментариях к этому посту.
🔥2❤1🕊1