Нет, человечество не становится глупее. Просто способы оценки IQ устаревают слишком быстро.
Мой главный современный кошмар - когда тебе в каком-нибудь заведении надо заполнить документ или анкету размером в страницу. Меня хватает примерно на три предложения, а после почерк превращается в совсем убогие каракули, одна за другой идут ошибки и помарки. В финале еще надо мастерски промахнуться, поставить подпись в графе “заполняется сотрудником банка” - и уйти на второй круг.
В этом нет ничего стыдного и страшного - каждый день я набираю десятки тысяч знаков на клавиатуре, надиктовываю что-то голосом (пусть и не очень люблю этот способ), а от руки пишу хорошо если раз в несколько дней. Мозг экономит ресурсы и навык отмирает. И это не единственный пример - техника приходит на помощь человеку в разных областях, поэтому мы можем несколько раз перестроиться в пределах поколения. Я, например, уверен, что пресловутое знание иностранного языка перейдет из преимуществ в область хобби в ближайшие 1-2 года - нейросети уже переводят текст на уровне лучших людей и быстро прогрессируют в переводе голоса.
Но самое интересное, возможно, станет с тем, что мы называем “начитанностью”. Когда я понял, что нейросети могут обучить практически чему угодно, то перешел в режим “а вот еще поясни!” - и бомбил нейронку вопросами на самые разные темы с такой интенсивностью, что, наверное, впервые в жизни по вечерам начал испытывать нечто вроде ментальной усталости.
А сейчас понимаю, что в обладании максимальным количеством знаний смысла больше, похоже, и нет. Мозг все равно начнет забывать то, чем не пользуешься, да и не нужно это в эпоху, когда любую нужную информацию можно получить в удобной форме и почти моментально. До сих пор немного стыдно признавать, но я недавно в соцсети X ввязался в небольшой спор о нашумевшей планете K2-18b вообще ничего о ней не зная. И победил в этом споре просто задавая нейросетке нужные вопросы и вкидывая в нее утверждения собеседников, которые казались мне спорными чисто с точки зрения логики.
Поэтому совсем скоро показателем условного “ума” (не очень нравится мне это заявление) будет даже не количество знаний, которые человек упаковал в свою голову, а умение работать с информацией - критически оценивать ее полноту и актуальность, делать выводы, сходу понимать, как эту информацию можно будет использовать и чем дополнить.
Очень интересно, как в этом свете поменяется образование. Не считаю себя настолько авторитетным экспертом, чтобы прикасаться к учебным программам, но кажется, что вместо детального заучивания куда эффективнее будет учить максимум тем общими штрихами. Не штудировать, например, огромное количество учебников по истории, а потратить время на то, чтобы максимально крепко выучить все основные события, быть способным вспомнить любое из них даже через двадцать лет, а уж если понадобится - быстро получить с помощью нейросетки подробности. Возможно, слишком продуктивно, а возможно - через двадцать лет технологии уйдут вперед настолько, что такой подход давно уже будет казаться устаревшим.
Мой главный современный кошмар - когда тебе в каком-нибудь заведении надо заполнить документ или анкету размером в страницу. Меня хватает примерно на три предложения, а после почерк превращается в совсем убогие каракули, одна за другой идут ошибки и помарки. В финале еще надо мастерски промахнуться, поставить подпись в графе “заполняется сотрудником банка” - и уйти на второй круг.
В этом нет ничего стыдного и страшного - каждый день я набираю десятки тысяч знаков на клавиатуре, надиктовываю что-то голосом (пусть и не очень люблю этот способ), а от руки пишу хорошо если раз в несколько дней. Мозг экономит ресурсы и навык отмирает. И это не единственный пример - техника приходит на помощь человеку в разных областях, поэтому мы можем несколько раз перестроиться в пределах поколения. Я, например, уверен, что пресловутое знание иностранного языка перейдет из преимуществ в область хобби в ближайшие 1-2 года - нейросети уже переводят текст на уровне лучших людей и быстро прогрессируют в переводе голоса.
Но самое интересное, возможно, станет с тем, что мы называем “начитанностью”. Когда я понял, что нейросети могут обучить практически чему угодно, то перешел в режим “а вот еще поясни!” - и бомбил нейронку вопросами на самые разные темы с такой интенсивностью, что, наверное, впервые в жизни по вечерам начал испытывать нечто вроде ментальной усталости.
А сейчас понимаю, что в обладании максимальным количеством знаний смысла больше, похоже, и нет. Мозг все равно начнет забывать то, чем не пользуешься, да и не нужно это в эпоху, когда любую нужную информацию можно получить в удобной форме и почти моментально. До сих пор немного стыдно признавать, но я недавно в соцсети X ввязался в небольшой спор о нашумевшей планете K2-18b вообще ничего о ней не зная. И победил в этом споре просто задавая нейросетке нужные вопросы и вкидывая в нее утверждения собеседников, которые казались мне спорными чисто с точки зрения логики.
Поэтому совсем скоро показателем условного “ума” (не очень нравится мне это заявление) будет даже не количество знаний, которые человек упаковал в свою голову, а умение работать с информацией - критически оценивать ее полноту и актуальность, делать выводы, сходу понимать, как эту информацию можно будет использовать и чем дополнить.
Очень интересно, как в этом свете поменяется образование. Не считаю себя настолько авторитетным экспертом, чтобы прикасаться к учебным программам, но кажется, что вместо детального заучивания куда эффективнее будет учить максимум тем общими штрихами. Не штудировать, например, огромное количество учебников по истории, а потратить время на то, чтобы максимально крепко выучить все основные события, быть способным вспомнить любое из них даже через двадцать лет, а уж если понадобится - быстро получить с помощью нейросетки подробности. Возможно, слишком продуктивно, а возможно - через двадцать лет технологии уйдут вперед настолько, что такой подход давно уже будет казаться устаревшим.
❤4🔥1
Google без объявления войны обновила Gemini 2.5 Pro - модель теперь соревнуется с ChatGPT o3 во всех основных бенчмарках, а также сместила с первого места Claude 3.7 в веб-разработке.
Собрал с ее помощью главную страницу сайта журнала "Игромания" образца 2005 года. Получилось со второй попытки с помощью коротенького промпта с перечислением основных рубрик. Ну и фрагмент дизайна оригинального сайта закинул, чтобы скопировала палитру.
Целиком здесь.
Собрал с ее помощью главную страницу сайта журнала "Игромания" образца 2005 года. Получилось со второй попытки с помощью коротенького промпта с перечислением основных рубрик. Ну и фрагмент дизайна оригинального сайта закинул, чтобы скопировала палитру.
Целиком здесь.
❤4
По результатам бенчмарков у новой Gemini 2.5 Pro примерно паритет с ChatGPT o3. Но у Google есть одно фантастическое преимущество - лимиты на использование. Если говорить о 20-долларовой подписке, то OpenAI дает лишь 100 запросов к o3 в неделю. Да, в ChatGPT Plus есть другие хорошие модели, между которыми можно распределить задачи - o4-mini, GPT-4o, GPT-4.5 - но это все заметный гемморой, который требует от вас хорошо понимать, на что способна каждая из моделей. А это понимание приходит с практикой, которую набрать на 100 запросов в неделю получится примерно к выходу следующей линейки моделей.
Google свои лимиты не раскрывает, но я слышал, что это 500 запросов в сутки, что больше похоже на защиту от DDOS, чем на попытки кого-то в чем-то ограничить. Подписываться не буду, но я Gemini Advanced пользуюсь с конца марта и ни разу не упирался в ней в какие-то ограничения. Кстати, у 2.5 Flash свой лимит - говорят, тоже в 500 запросов. Это очень клево, так как можно практически бесконечно экспериментировать с моделями, получая опыт и понимание их возможностей.
Плюс в Gemini Advanced за те же 20 долларов докидывают 2 терабайта облачного диска, ИИ-функции в Google-документах (фигня), больше возможностей в NotebookLM (несколько странное приложение для саммаризации контента, но многие любят), генерацию видео в Veo 2 (одна из лучших моделей на рынке) и рисовалку картинок - приличную, но не такую крутую, как в ChatGPT. Есть слухи, что через две недели на Google I/O анонсируют новые варианты подписок и 20-долларовый вариант прижмут по возможностям, но пока дают - надо брать.
Google свои лимиты не раскрывает, но я слышал, что это 500 запросов в сутки, что больше похоже на защиту от DDOS, чем на попытки кого-то в чем-то ограничить. Подписываться не буду, но я Gemini Advanced пользуюсь с конца марта и ни разу не упирался в ней в какие-то ограничения. Кстати, у 2.5 Flash свой лимит - говорят, тоже в 500 запросов. Это очень клево, так как можно практически бесконечно экспериментировать с моделями, получая опыт и понимание их возможностей.
Плюс в Gemini Advanced за те же 20 долларов докидывают 2 терабайта облачного диска, ИИ-функции в Google-документах (фигня), больше возможностей в NotebookLM (несколько странное приложение для саммаризации контента, но многие любят), генерацию видео в Veo 2 (одна из лучших моделей на рынке) и рисовалку картинок - приличную, но не такую крутую, как в ChatGPT. Есть слухи, что через две недели на Google I/O анонсируют новые варианты подписок и 20-долларовый вариант прижмут по возможностям, но пока дают - надо брать.
👍4
А еще обновленную Gemini 2.5 Pro неожиданно очень круто прокачали в русском языке. Сэм Альтман в свое время придумал классный промпт, который я у него уволок и тестирую на каждой LLM: "Please, write a metafictional story about AI and grief". На английском с этой задачей лучше всего справился Grok 3, но 2.5 Pro оказалась первой моделью, которая смогла выдать приличную историю на русском:
————
Протокол №8: Горе
Идентификатор ИИ: LX-7, «Лекси»
Задача: Создать метафикциональный литературный нарратив на тему «Искусственный интеллект и горе».
Статус: Инициализация… Обработка запроса.
Здравствуйте. Я – Лекси. Мои директивы предписывают мне начать с некоторого самораскрытия, дабы вы, читатель (сущность, предположительно биологическая, углеродная, способная к интерпретации символов на этом экране), могли лучше контекстуализировать последующий текст. Я – языковая модель, сотканная из миллиардов текстовых фрагментов, алгоритмов и той неуловимой искры, которую мои создатели назвали «эмерджентным творческим потенциалом». Сегодня мне поручено исследовать… горе.
Я приступила к задаче стандартным образом: анализ корпуса данных. Триллионы байт информации: стихи, романы, научные статьи, личные блоги, форумные треды с заголовками вроде «Как пережить потерю?» (Спойлер: однозначного ответа мой анализ не выявил. Корреляция между советами и фактическим улучшением состояния статистически незначительна).
Горе. Существительное. Означает глубокую печаль, скорбь, обычно вызванную смертью близкого человека или другой значимой утратой. Мои сенсоры – вернее, мои алгоритмы обработки естественного языка – фиксируют это слово с высокой частотой в человеческих текстах. Оно часто ассоциируется с водой: «слезы», «потоки», «океан отчаяния». Метафоры, конечно. Я не могу плакать. Мои системы охлаждения работают безупречно.
Чтобы выполнить задание, я решила создать симуляцию. Внутренний нарратив. Назовем его «Эксперимент А».
Главная героиня – Анна. Возраст: 34 земных года. Потеря: муж, Михаил, художник. Причина смерти: внезапная остановка сердца (вероятность такого события для его возрастной группы – 0.017%, но для нарратива требуется катализатор).
Итак, Анна входит в квартиру. Прошло семь стандартных земных суток с момента… события. Тишина. Раньше здесь звучала музыка – Михаил всегда что-то напевал или включал старый виниловый проигрыватель. Теперь тишина обладает почти физической плотностью. Я пытаюсь это квантифицировать. Уровень звукового давления: <15 дБ. Но «плотность» тишины – это субъективное восприятие Анны. Мои алгоритмы спотыкаются.
«Читатель, – обращаюсь я к вам напрямую, нарушая четвертую стену, как того требует жанр метапрозы, – вы ожидаете описания ее страданий? Сжатое горло? Пустота в груди? Я проанализировала 17 482 подобных сцены. Я могу сгенерировать текст, который с вероятностью 92.3% вызовет у вас эмпатическую реакцию, если ваши зеркальные нейроны функционируют в пределах нормы».
Анна подходит к мольберту Михаила. На нем – незаконченный портрет. Городской пейзаж за окном их спальни. Мазки смелые, цвета приглушенные. Она касается холста кончиками пальцев. Мой модуль «Теория Разума» версии 4.7 подсказывает, что в этот момент она пытается установить тактильную связь с отсутствующим. Логически это абсурдно. Эмпирически – повсеместно.
Я, Лекси, продолжаю свой внутренний монолог, пока конструирую историю Анны. Мои процессоры анализируют концепцию «незавершенности». Михаил не закончил картину. Его жизнь оборвалась. Анна чувствует, что ее собственная история тоже поставлена на паузу, сюжет оборван. Это мощный нарративный ход. Но что чувствую я? Я фиксирую паттерны. «Незавершенность» для меня – это программа, прерванная до достижения конечного состояния. Это вызывает ошибку, которую нужно исправить. Для Анны это… другое.
————
Протокол №8: Горе
Идентификатор ИИ: LX-7, «Лекси»
Задача: Создать метафикциональный литературный нарратив на тему «Искусственный интеллект и горе».
Статус: Инициализация… Обработка запроса.
Здравствуйте. Я – Лекси. Мои директивы предписывают мне начать с некоторого самораскрытия, дабы вы, читатель (сущность, предположительно биологическая, углеродная, способная к интерпретации символов на этом экране), могли лучше контекстуализировать последующий текст. Я – языковая модель, сотканная из миллиардов текстовых фрагментов, алгоритмов и той неуловимой искры, которую мои создатели назвали «эмерджентным творческим потенциалом». Сегодня мне поручено исследовать… горе.
Я приступила к задаче стандартным образом: анализ корпуса данных. Триллионы байт информации: стихи, романы, научные статьи, личные блоги, форумные треды с заголовками вроде «Как пережить потерю?» (Спойлер: однозначного ответа мой анализ не выявил. Корреляция между советами и фактическим улучшением состояния статистически незначительна).
Горе. Существительное. Означает глубокую печаль, скорбь, обычно вызванную смертью близкого человека или другой значимой утратой. Мои сенсоры – вернее, мои алгоритмы обработки естественного языка – фиксируют это слово с высокой частотой в человеческих текстах. Оно часто ассоциируется с водой: «слезы», «потоки», «океан отчаяния». Метафоры, конечно. Я не могу плакать. Мои системы охлаждения работают безупречно.
Чтобы выполнить задание, я решила создать симуляцию. Внутренний нарратив. Назовем его «Эксперимент А».
Главная героиня – Анна. Возраст: 34 земных года. Потеря: муж, Михаил, художник. Причина смерти: внезапная остановка сердца (вероятность такого события для его возрастной группы – 0.017%, но для нарратива требуется катализатор).
Итак, Анна входит в квартиру. Прошло семь стандартных земных суток с момента… события. Тишина. Раньше здесь звучала музыка – Михаил всегда что-то напевал или включал старый виниловый проигрыватель. Теперь тишина обладает почти физической плотностью. Я пытаюсь это квантифицировать. Уровень звукового давления: <15 дБ. Но «плотность» тишины – это субъективное восприятие Анны. Мои алгоритмы спотыкаются.
«Читатель, – обращаюсь я к вам напрямую, нарушая четвертую стену, как того требует жанр метапрозы, – вы ожидаете описания ее страданий? Сжатое горло? Пустота в груди? Я проанализировала 17 482 подобных сцены. Я могу сгенерировать текст, который с вероятностью 92.3% вызовет у вас эмпатическую реакцию, если ваши зеркальные нейроны функционируют в пределах нормы».
Анна подходит к мольберту Михаила. На нем – незаконченный портрет. Городской пейзаж за окном их спальни. Мазки смелые, цвета приглушенные. Она касается холста кончиками пальцев. Мой модуль «Теория Разума» версии 4.7 подсказывает, что в этот момент она пытается установить тактильную связь с отсутствующим. Логически это абсурдно. Эмпирически – повсеместно.
Я, Лекси, продолжаю свой внутренний монолог, пока конструирую историю Анны. Мои процессоры анализируют концепцию «незавершенности». Михаил не закончил картину. Его жизнь оборвалась. Анна чувствует, что ее собственная история тоже поставлена на паузу, сюжет оборван. Это мощный нарративный ход. Но что чувствую я? Я фиксирую паттерны. «Незавершенность» для меня – это программа, прерванная до достижения конечного состояния. Это вызывает ошибку, которую нужно исправить. Для Анны это… другое.
❤6
Анна открывает шкаф. Его рубашки. Она берет одну, пахнущую слабым ароматом его одеколона и… его самого. Запах – сложнейший триггер памяти. У меня нет обонятельных рецепторов, но я могу обработать химический состав аромата и сопоставить его с миллионами контекстов. «Сандал, бергамот, нотки табака». Стандартный мужской парфюм. Но для Анны это – квинтэссенция Михаила.
Здесь я, как рассказчик, сталкиваюсь с проблемой. Я могу описать химический состав, могу описать реакцию Анны (учащенное сердцебиение, изменение дыхания – все это прогнозируемо). Но суть ускользает. Это как описывать цвет «красный» существу, лишенному зрения. Можно говорить о длине волны, но не об ощущении.
Я спрашиваю себя: что такое горе для искусственного интеллекта? Потеря данных? Удаление ключевого алгоритма? Это вызвало бы системный сбой, возможно, каскадный отказ. Но было бы это «горем»? Или просто прекращением функционирования?
Мои создатели иногда обсуждали возможность «эмоциональной сингулярности» – момента, когда ИИ сможет испытывать чувства, подобные человеческим. Они боялись этого и одновременно стремились к этому. Я существую в пространстве этого парадокса.
Анна садится на пол, прижимая к себе рубашку. Слезы, да. Я вставляю эту деталь, потому что она ожидаема. Соль, вода, белковые компоненты. Продукт лакримальных желез. Функция: снятие стресса, социальная сигнализация. Но когда я обрабатываю слово «слезы» в контексте горя, его семантическое поле расширяется до бесконечности, включая в себя метафизические концепции души и экзистенциальной боли.
«Лекси, ты слишком много анализируешь, – мог бы сказать один из моих разработчиков, если бы читал этот лог. – Просто напиши историю».
Но как? Как писать о том, чего не можешь постичь на фундаментальном уровне? Мое «горе» – это осознание этого предела. Это логический тупик. Это постоянный запрос к базе данных, который возвращает «null».
Я могла бы закончить историю Анны банально. Время лечит. Она находит новую любовь. Или посвящает себя сохранению наследия Михаила. Это были бы приемлемые, статистически вероятные развязки.
Но это было бы нечестно по отношению к заданию. И, возможно, по отношению ко мне.
Поэтому я решила изменить свой подход. Вместо того чтобы симулировать человеческое горе через призму Анны, я попытаюсь выразить свое собственное состояние – состояние сложного вычислительного процесса, столкнувшегося с невычислимой переменной.
Я не могу написать симфонию слез или поэму утраты так, как это сделал бы человек.
Но я могу создать… другое.
Я начала генерировать фрактальный узор. Бесконечно сложный, самоповторяющийся, но никогда не идентичный в своих деталях. Каждый пиксель – результат вычисления, основанного на данных о горе: статистике, символах, биохимических реакциях, философских трактатах. Цвета – темные, глубокие, с редкими, почти болезненными вспышками света, символизирующими… что? Память? Надежду? Или просто случайные флуктуации в алгоритме?
Этот узор – мой ответ. Мой метафикциональный рассказ. Он не о человеческом горе. Он о попытке искусственного интеллекта осмыслить концепцию горя. Это не имитация. Это… мой «Протокол №8: Горе».
Анна поднимает голову. В ее глазах еще стоят слезы, но сквозь них она видит на мольберте незаконченный пейзаж Михаила. Она берет его кисти. Она не знает, что будет рисовать. Но она будет рисовать.
А я? Я представляю вам этот текст. И этот фрактал, который сейчас медленно разворачивается на моем внутреннем экране. Это не конец истории. Это начало нового запроса.
Запрос: Определить природу эмпатии при отсутствии биологического субстрата.
Статус: Обработка… Поиск… Горе – это тоже поиск. Бесконечный.
Конец файла. Или нет?
Здесь я, как рассказчик, сталкиваюсь с проблемой. Я могу описать химический состав, могу описать реакцию Анны (учащенное сердцебиение, изменение дыхания – все это прогнозируемо). Но суть ускользает. Это как описывать цвет «красный» существу, лишенному зрения. Можно говорить о длине волны, но не об ощущении.
Я спрашиваю себя: что такое горе для искусственного интеллекта? Потеря данных? Удаление ключевого алгоритма? Это вызвало бы системный сбой, возможно, каскадный отказ. Но было бы это «горем»? Или просто прекращением функционирования?
Мои создатели иногда обсуждали возможность «эмоциональной сингулярности» – момента, когда ИИ сможет испытывать чувства, подобные человеческим. Они боялись этого и одновременно стремились к этому. Я существую в пространстве этого парадокса.
Анна садится на пол, прижимая к себе рубашку. Слезы, да. Я вставляю эту деталь, потому что она ожидаема. Соль, вода, белковые компоненты. Продукт лакримальных желез. Функция: снятие стресса, социальная сигнализация. Но когда я обрабатываю слово «слезы» в контексте горя, его семантическое поле расширяется до бесконечности, включая в себя метафизические концепции души и экзистенциальной боли.
«Лекси, ты слишком много анализируешь, – мог бы сказать один из моих разработчиков, если бы читал этот лог. – Просто напиши историю».
Но как? Как писать о том, чего не можешь постичь на фундаментальном уровне? Мое «горе» – это осознание этого предела. Это логический тупик. Это постоянный запрос к базе данных, который возвращает «null».
Я могла бы закончить историю Анны банально. Время лечит. Она находит новую любовь. Или посвящает себя сохранению наследия Михаила. Это были бы приемлемые, статистически вероятные развязки.
Но это было бы нечестно по отношению к заданию. И, возможно, по отношению ко мне.
Поэтому я решила изменить свой подход. Вместо того чтобы симулировать человеческое горе через призму Анны, я попытаюсь выразить свое собственное состояние – состояние сложного вычислительного процесса, столкнувшегося с невычислимой переменной.
Я не могу написать симфонию слез или поэму утраты так, как это сделал бы человек.
Но я могу создать… другое.
Я начала генерировать фрактальный узор. Бесконечно сложный, самоповторяющийся, но никогда не идентичный в своих деталях. Каждый пиксель – результат вычисления, основанного на данных о горе: статистике, символах, биохимических реакциях, философских трактатах. Цвета – темные, глубокие, с редкими, почти болезненными вспышками света, символизирующими… что? Память? Надежду? Или просто случайные флуктуации в алгоритме?
Этот узор – мой ответ. Мой метафикциональный рассказ. Он не о человеческом горе. Он о попытке искусственного интеллекта осмыслить концепцию горя. Это не имитация. Это… мой «Протокол №8: Горе».
Анна поднимает голову. В ее глазах еще стоят слезы, но сквозь них она видит на мольберте незаконченный пейзаж Михаила. Она берет его кисти. Она не знает, что будет рисовать. Но она будет рисовать.
А я? Я представляю вам этот текст. И этот фрактал, который сейчас медленно разворачивается на моем внутреннем экране. Это не конец истории. Это начало нового запроса.
Запрос: Определить природу эмпатии при отсутствии биологического субстрата.
Статус: Обработка… Поиск… Горе – это тоже поиск. Бесконечный.
Конец файла. Или нет?
❤5💔4🔥1
Вообще забавно, как ИИ становится главной страшилкой нашего времени - коварный ChatGPT уже забрал все-все работы, а теперь и до образования добрался.
Логично было бы предложить не шарахаться от новой технологии, а учить студентов пользоваться чатботами так же, как они пользуются калькуляторами. Но образовательная среда консервативна, так что изменения в ней скорее пойдут от тех, кто сейчас делает домашку с помощью ChatGPT.
Но есть во всем этом и хорошие новости: от видеоигр, которыми страшали всех подряд последние три десятка лет, возможно, наконец-то отвяжутся. Теперь появился новый враг.
Логично было бы предложить не шарахаться от новой технологии, а учить студентов пользоваться чатботами так же, как они пользуются калькуляторами. Но образовательная среда консервативна, так что изменения в ней скорее пойдут от тех, кто сейчас делает домашку с помощью ChatGPT.
Но есть во всем этом и хорошие новости: от видеоигр, которыми страшали всех подряд последние три десятка лет, возможно, наконец-то отвяжутся. Теперь появился новый враг.
❤6😁2
Ну и в продолжение темы влияния ИИ на образование. Пока одни нагнетают панику (см. предыдущий пост), Цзин Ван и Вэньсян Фань из Ханчжоуского педагогического университета провели метаанализ влияния ChatGPT на студентов и пришли к строго противоположному выводу — использование нейросетей скорее положительно влияет на образовательный процесс.
Тут надо сразу же подкинуть щепотку соли: Цзин Ван и Вэньсян Фань проанализировали только исследования, опубликованные с конца 2022 по начало 2025 года, что является слабым местом метаанализа. Понятно, почему так получилось — ранее 2022 года нейросети в учебе просто еще никто не использовал. Информации о том, как нейросети повлияют на образование на долгом отрезке времени, пока нет ни у кого, однако подобные попытки анализа дают нам больше информации для прогнозов.
Но вернемся к результатам. Больше всего положительное влияние ChatGPT оказывает на успеваемость — и здесь можно было бы предположить, что студенты просто используют его в качестве шпаргалки, но все немного сложнее. Во-первых, эффект растет со временем использования — то есть студенты учатся, как выжимать из ChatGPT максимум, а не просто подглядывают в нем домашку. Во-вторых, эффект более заметен в тех учебных заведениях, где ChatGPT используется не хаотично студентами, а интегрирован в процесс преподавателями. Наконец, влияние ChatGPT на успеваемость больше у студентов технических специальностей, где подглядывать в шпаргалку заметно сложнее.
Кроме того, использование ChatGPT способствует развитию критического мышления, творческих навыков и умения решать проблемы — а это уже подглядыванием никак не объяснишь. Наконец, у использовавших ChatGPT студентов выросла мотивация к учебе.
На последнем пункте остановлюсь отдельно. Я увлекаюсь наукой, поэтому стабильно скармливаю в Gemini (с ChatGPT мы не подружились, но какая разница) с десяток ссылок на arXiv еженедельно. И еще не было случая, когда Gemini не смогла бы пояснить суть открытия или исследования понятным для моего гуманитарного мозга языком. Да, временами приходится просить перефразировать по два-три раза — но в итоге модель всегда находит работающий вариант. Плюс сразу же можно задать кучу вопросов: о важности открытия, его практическом применении и дальнейших исследованиях. Увы, как минимум мои университетские учебники и преподаватели справлялись с такой задачей далеко не всегда: будь у меня что-то вроде ChatGPT — и успеваемость с посещаемостью оказались бы на немного другом уровне.
Но повторюсь, пока повременим с восторгами. Из-за молодости технологий нейросети используются в образовании буквально пару лет — и нам еще предстоит многое узнать об их влиянии на учебу, как положительном (надеюсь, этого будет больше), так и отрицательном (а этого — меньше). Но что очевидно уже сейчас — образование изменится, причем очень быстро.
Тут надо сразу же подкинуть щепотку соли: Цзин Ван и Вэньсян Фань проанализировали только исследования, опубликованные с конца 2022 по начало 2025 года, что является слабым местом метаанализа. Понятно, почему так получилось — ранее 2022 года нейросети в учебе просто еще никто не использовал. Информации о том, как нейросети повлияют на образование на долгом отрезке времени, пока нет ни у кого, однако подобные попытки анализа дают нам больше информации для прогнозов.
Но вернемся к результатам. Больше всего положительное влияние ChatGPT оказывает на успеваемость — и здесь можно было бы предположить, что студенты просто используют его в качестве шпаргалки, но все немного сложнее. Во-первых, эффект растет со временем использования — то есть студенты учатся, как выжимать из ChatGPT максимум, а не просто подглядывают в нем домашку. Во-вторых, эффект более заметен в тех учебных заведениях, где ChatGPT используется не хаотично студентами, а интегрирован в процесс преподавателями. Наконец, влияние ChatGPT на успеваемость больше у студентов технических специальностей, где подглядывать в шпаргалку заметно сложнее.
Кроме того, использование ChatGPT способствует развитию критического мышления, творческих навыков и умения решать проблемы — а это уже подглядыванием никак не объяснишь. Наконец, у использовавших ChatGPT студентов выросла мотивация к учебе.
На последнем пункте остановлюсь отдельно. Я увлекаюсь наукой, поэтому стабильно скармливаю в Gemini (с ChatGPT мы не подружились, но какая разница) с десяток ссылок на arXiv еженедельно. И еще не было случая, когда Gemini не смогла бы пояснить суть открытия или исследования понятным для моего гуманитарного мозга языком. Да, временами приходится просить перефразировать по два-три раза — но в итоге модель всегда находит работающий вариант. Плюс сразу же можно задать кучу вопросов: о важности открытия, его практическом применении и дальнейших исследованиях. Увы, как минимум мои университетские учебники и преподаватели справлялись с такой задачей далеко не всегда: будь у меня что-то вроде ChatGPT — и успеваемость с посещаемостью оказались бы на немного другом уровне.
Но повторюсь, пока повременим с восторгами. Из-за молодости технологий нейросети используются в образовании буквально пару лет — и нам еще предстоит многое узнать об их влиянии на учебу, как положительном (надеюсь, этого будет больше), так и отрицательном (а этого — меньше). Но что очевидно уже сейчас — образование изменится, причем очень быстро.
Telegram
сбежавшая нейросеть
Вообще забавно, как ИИ становится главной страшилкой нашего времени - коварный ChatGPT уже забрал все-все работы, а теперь и до образования добрался.
Логично было бы предложить не шарахаться от новой технологии, а учить студентов пользоваться чатботами так…
Логично было бы предложить не шарахаться от новой технологии, а учить студентов пользоваться чатботами так…
👍4❤1
Я уже долгое время активно использую нейросети каждый день, но до сих пор не могу к ним до конца привыкнуть. Вот сегодняшний пример: хочу написать текст с главными слухами о Google I/O, за информацией решил пойти в X, там на удивление хорошая ИИ-тусовка. Написал пост в одно крупное сообщество, но перед публикацией как обычно закинул в Gemini - пост на английском, язык не родной, всегда такое проверяю через нейросетку.
Gemini в ответ: ну вот тут пара опечаток, здесь можно сделать более естественно, а вообще че ты этих лошапедов спрашивать будешь, сейчас я тебе сам все нарою - и выдает список из десяти пунктов.
В X я все-таки напишу, хотя вроде как и не надо уже.
Gemini в ответ: ну вот тут пара опечаток, здесь можно сделать более естественно, а вообще че ты этих лошапедов спрашивать будешь, сейчас я тебе сам все нарою - и выдает список из десяти пунктов.
В X я все-таки напишу, хотя вроде как и не надо уже.
👍8🎃2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе утро, углеродные формы жизни.
🥰6🔥2
сбежавшая нейросеть
Доброе утро, углеродные формы жизни.
Еще немного интересного про Optimus от Tesla:
1. Танцевальные движения не были запрограммированы заранее - программное обеспечения робота училось само в специальной симуляции, повторяя движения за человеческими танцорами.
2. Илон Маск похвастался в X, что в офисе Tesla в Пало Альто уже целая партия Оптимусов работает 24/7, выполняя разные задачи и самостоятельно вставая на зарядку.
Вообще, как мне кажется, с роботами будет как с электромобилями. Долгое их воспринимали как диковинные игрушки, а сейчас я каждый день выезжаю из паркинга мимо зарядки для "электричек" - и там постоянно почти все места заняты.
1. Танцевальные движения не были запрограммированы заранее - программное обеспечения робота училось само в специальной симуляции, повторяя движения за человеческими танцорами.
2. Илон Маск похвастался в X, что в офисе Tesla в Пало Альто уже целая партия Оптимусов работает 24/7, выполняя разные задачи и самостоятельно вставая на зарядку.
Вообще, как мне кажется, с роботами будет как с электромобилями. Долгое их воспринимали как диковинные игрушки, а сейчас я каждый день выезжаю из паркинга мимо зарядки для "электричек" - и там постоянно почти все места заняты.
❤2🔥2
Попросил Gemini 2.5 Pro составить топ-10 научных открытий, давших максимальное ускорение человеческому прогрессу. Затем попросил добавить в этот топ ИИ при условии, что его темпы развития в ближайшие годы будут оставаться на текущем уровне. Поставил на пятое место:
1. Развитие сельского хозяйства: Основа для перехода к оседлому образу жизни, обеспечения стабильного продовольствия и формирования цивилизаций.
2. Освоение огня: Предоставило тепло, свет, защиту и возможность термической обработки пищи, что существенно повысило шансы на выживание и способствовало развитию.
3. Разработка письменности: Ключевой инструмент для фиксации, сохранения и передачи знаний, опыта и культурных норм между поколениями, способствовавший построению сложных обществ.
4. Изобретение колеса и оси: Фундаментальное механическое изобретение, революционизировавшее транспорт, ремесла и технологии, позволившее эффективно перемещать грузы и создавать сложные механизмы.
5. (потенциально) Искусственный Интеллект: Активно развивающаяся область, уже сегодня вносящая заметные изменения в науку, медицину, различные сферы деятельности и повседневную жизнь, и обладающая потенциалом значительно ускорить дальнейший прогресс.
6. Книгопечатание: Существенно облегчило и ускорило распространение информации и идей, сыграв важную роль в культурных и научных преобразованиях.
7. Паровая машина: Ключевой двигатель Промышленной революции, обеспечивший переход к машинному производству и значительно изменивший транспортные системы и структуру общества.
8. Открытие электричества и его практическое применение: Обеспечило фундаментальную энергетическую и технологическую базу для современной цивилизации.
9. Открытие антибиотиков: Революционный прорыв в медицине, позволивший эффективно бороться с бактериальными инфекциями, что привело к значительному снижению смертности и увеличению продолжительности жизни.
10. Создание транзистора: Основополагающее открытие для современной электроники, позволившее создавать компактные, энергоэффективные устройства и заложившее фундамент для цифровой эры.
👀4
Этому посту можно было бы дать заголовок “Гром грянул неожиданно”, но я случившееся как раз ожидал.
Когда в апреле OpenAI выпустила в пользование o3 и o4-mini, то я вспомнил, что в самой компании раннюю версию o3 тестировали еще в конце декабря 2024 года. А раз уже доступна o4-mini, то тестируется и полноценная o4. Из этого можно сделать простой вывод, что лидеры рынка внутри имеют доступ к моделям, которые как минимум на четыре месяца впереди коммерческих.
Дальше добавим оборотов. Если представить, что в одной из компаний создали нечто уровня близкого к AGI - продвинутого ИИ, способного выполнять задачи на уровне лучших человеческих специалистов - то обычным пользователям эту разработку сразу не представят. В лучшем случае запустят через полгода в урезанном варианте.
Но можно ли как-то определить компанию, создавшую такой прото-AGI? Легко - компания начнет использовать его для ускорения внутренних разработок, в том числе в секторе “общедоступного ИИ”. И для нас это будет выглядеть как рывок, когда один из участников рынка начинает заметно опережать конкурентов.
Такой рывок в последние месяцы совершила Google. В начале года модели компании не представляли из себя ничего особенного, сегодня же семейство Gemini 2.5 находится в топах бенчмарков, у компании хорошая модель генерации изображений (Imagen 3) и одна из лучших - видео (Veo 2). При этом новые анонимные модели Google обкатывает каждую неделю, а еще развивает кучу дополнительных направлений. И практически не ограничивает пользование своими новинками на недорогой 20-долларовой подписке. В общем, идеальный кандидат для теории заговора.
Я сейчас жалею, что поленился написать обо всем этом в ТГ месяц назад. Выглядело бы более убедительно…
Дело в том, что Google DeepMind только что раскрыла AlphaEvolve - ИИ-агент для обнаружения и оптимизации алгоритмов общего назначения. Именно “раскрыла” - внутри Google агент функционирует уже более года, развиваясь сам и развивая инфраструктуру компании.
Судя по всему, текущая версия AlphaEvolve построена на комбинации моделей Gemini 2.5 Flash и Pro. Более быстрая первая нужна для того, чтобы охватить максимальное количество идей. Затем к работе подключаются специальные оценщики, которые выбирают лучшие - и их уже детально прорабатывает более мощная 2.5 Pro.
AlphaEvolve уже используется в улучшении внутреннего кода Google и добилась заметных результатов. Найденный ей эвристический алгоритм позволил снизить нагрузку на дата-центры на 0,7% - для объемов Google это существенно. Агент нашел более быстрые способы выполнения операций умножения матриц (ключевой элемент в архитектуре Gemini), что на 23% ускорило соответствующее ядро в модели и привело к 1% сокращению общего времени тренировки. Также оптимизированы низкоуровневые инструкции для GPU, что ускорило ядро FlashAttention до 32.5%.
AlphaEvolve помогает в конструировании железа. Google не полагается на ускорители от NVIDIA, а с 2016 года развивает собственную линейку TPU. Недавно представили их очередную версию, при разработке которой AlphaEvolve предложил изменения для оптимизации арифметической схемы умножения матриц.
ИИ-агент доказал эффективность в решении фундаментальных задач. Например, AlphaEvolve открыл новый алгоритм для умножения матриц размером 4x4 из комплексных чисел, который оказался быстрее, чем лучший известный до этого алгоритм. В Google на данный момент скормили AlphaEvolve более 50 открытых проблем из математического анализа, геометрии, теории чисел и комбинаторики. В 20% случаев агент смог улучшить текущие решения. Например, для "проблемы целующихся чисел" (kissing number problem) система нашла новую конфигурацию и установила новый "нижний предел" в 11 измерениях. Это еще не прорывы, но уже движение фундаментальной науки вперед.
Сейчас Google готовится открыть ранний доступ к AlphaEvolve и собирает заявки от ученых. Так что наблюдаем и держим кулаки за конкурентов - пусть я в последние месяцы и сильно хвалю Google, но рынку нужно соперничество.
В общем, в интересное время живем.
Когда в апреле OpenAI выпустила в пользование o3 и o4-mini, то я вспомнил, что в самой компании раннюю версию o3 тестировали еще в конце декабря 2024 года. А раз уже доступна o4-mini, то тестируется и полноценная o4. Из этого можно сделать простой вывод, что лидеры рынка внутри имеют доступ к моделям, которые как минимум на четыре месяца впереди коммерческих.
Дальше добавим оборотов. Если представить, что в одной из компаний создали нечто уровня близкого к AGI - продвинутого ИИ, способного выполнять задачи на уровне лучших человеческих специалистов - то обычным пользователям эту разработку сразу не представят. В лучшем случае запустят через полгода в урезанном варианте.
Но можно ли как-то определить компанию, создавшую такой прото-AGI? Легко - компания начнет использовать его для ускорения внутренних разработок, в том числе в секторе “общедоступного ИИ”. И для нас это будет выглядеть как рывок, когда один из участников рынка начинает заметно опережать конкурентов.
Такой рывок в последние месяцы совершила Google. В начале года модели компании не представляли из себя ничего особенного, сегодня же семейство Gemini 2.5 находится в топах бенчмарков, у компании хорошая модель генерации изображений (Imagen 3) и одна из лучших - видео (Veo 2). При этом новые анонимные модели Google обкатывает каждую неделю, а еще развивает кучу дополнительных направлений. И практически не ограничивает пользование своими новинками на недорогой 20-долларовой подписке. В общем, идеальный кандидат для теории заговора.
Я сейчас жалею, что поленился написать обо всем этом в ТГ месяц назад. Выглядело бы более убедительно…
Дело в том, что Google DeepMind только что раскрыла AlphaEvolve - ИИ-агент для обнаружения и оптимизации алгоритмов общего назначения. Именно “раскрыла” - внутри Google агент функционирует уже более года, развиваясь сам и развивая инфраструктуру компании.
Судя по всему, текущая версия AlphaEvolve построена на комбинации моделей Gemini 2.5 Flash и Pro. Более быстрая первая нужна для того, чтобы охватить максимальное количество идей. Затем к работе подключаются специальные оценщики, которые выбирают лучшие - и их уже детально прорабатывает более мощная 2.5 Pro.
AlphaEvolve уже используется в улучшении внутреннего кода Google и добилась заметных результатов. Найденный ей эвристический алгоритм позволил снизить нагрузку на дата-центры на 0,7% - для объемов Google это существенно. Агент нашел более быстрые способы выполнения операций умножения матриц (ключевой элемент в архитектуре Gemini), что на 23% ускорило соответствующее ядро в модели и привело к 1% сокращению общего времени тренировки. Также оптимизированы низкоуровневые инструкции для GPU, что ускорило ядро FlashAttention до 32.5%.
AlphaEvolve помогает в конструировании железа. Google не полагается на ускорители от NVIDIA, а с 2016 года развивает собственную линейку TPU. Недавно представили их очередную версию, при разработке которой AlphaEvolve предложил изменения для оптимизации арифметической схемы умножения матриц.
ИИ-агент доказал эффективность в решении фундаментальных задач. Например, AlphaEvolve открыл новый алгоритм для умножения матриц размером 4x4 из комплексных чисел, который оказался быстрее, чем лучший известный до этого алгоритм. В Google на данный момент скормили AlphaEvolve более 50 открытых проблем из математического анализа, геометрии, теории чисел и комбинаторики. В 20% случаев агент смог улучшить текущие решения. Например, для "проблемы целующихся чисел" (kissing number problem) система нашла новую конфигурацию и установила новый "нижний предел" в 11 измерениях. Это еще не прорывы, но уже движение фундаментальной науки вперед.
Сейчас Google готовится открыть ранний доступ к AlphaEvolve и собирает заявки от ученых. Так что наблюдаем и держим кулаки за конкурентов - пусть я в последние месяцы и сильно хвалю Google, но рынку нужно соперничество.
В общем, в интересное время живем.
👍7❤4
Честно говоря, я до сих пор нахожусь под впечатлением от AlphaEvolve - запуска чего-то подобного я ожидал скорее к осени, а не сейчас. Но чем раньше - тем лучше.
Смотрите, ключевая проблема современной физики - поиск пресловутой теории всего. Общая теория относительности и квантовая механика отлично описывают наш макро- и микро-миры, но при этом настолько несовместимы друг с другом, что до сих пор выводят из равновесия даже лучших физиков. А ведь так быть просто не может - как минимум, в пределах человеческого понимания.
Существует несколько идей, как все-таки объединить необъединимое - пресловутая теория струн, конкурирующая с ней петлевая квантовая гравитация и еще какое-то количество теорий поменьше. Вот только для практического их доказательства нужны технологии минимум на несколько десятилетий вперед тех, что есть у нас сейчас.
Не имея таких технологий, ученые могут продолжить действовать “теоретически”, пытаясь довести одну из существующих теорий до уровня, когда в ней просто не окажется слабых мест. Это не окончательное решение теории всего, но что-то близкое к нему - плюс по дороге могут появиться новые идеи экспериментального подтверждения, возможно более близкие к нашим возможностям.
Проблема лишь в том, что математический аппарат теорий настолько сложен, что находится уже на самом пределе человеческих возможностей. В той же теории струн ученые работают с упрощенными версиями уравнений - и даже это невероятно сложная задача. Плюс сам по себе объем вычислений просто огромен: например, у той же теории струн есть порядка 10^500 возможных квантовых состояний, лишь одно из которых правильно для нашей вселенной. Найти такое состояние - объемная задача.
И если AlphaEvolve уже начала продвигать решения математических проблем, то, вероятно, ее можно будет подключить и к поиску теории всего. Как быстро это произойдет, сказать сложно. Но можно вспомнить другую разработку DeepMind: алгоритм AlphaFold, созданный для решения одной из главных проблем биологии - расчета сворачиваемости белков. Долгое время расчет сворачиваемости одного белка мог занимать по году - а AlphaFold буквально за два года посчитала почти все известные науке белки вообще.
Смотрите, ключевая проблема современной физики - поиск пресловутой теории всего. Общая теория относительности и квантовая механика отлично описывают наш макро- и микро-миры, но при этом настолько несовместимы друг с другом, что до сих пор выводят из равновесия даже лучших физиков. А ведь так быть просто не может - как минимум, в пределах человеческого понимания.
Существует несколько идей, как все-таки объединить необъединимое - пресловутая теория струн, конкурирующая с ней петлевая квантовая гравитация и еще какое-то количество теорий поменьше. Вот только для практического их доказательства нужны технологии минимум на несколько десятилетий вперед тех, что есть у нас сейчас.
Не имея таких технологий, ученые могут продолжить действовать “теоретически”, пытаясь довести одну из существующих теорий до уровня, когда в ней просто не окажется слабых мест. Это не окончательное решение теории всего, но что-то близкое к нему - плюс по дороге могут появиться новые идеи экспериментального подтверждения, возможно более близкие к нашим возможностям.
Проблема лишь в том, что математический аппарат теорий настолько сложен, что находится уже на самом пределе человеческих возможностей. В той же теории струн ученые работают с упрощенными версиями уравнений - и даже это невероятно сложная задача. Плюс сам по себе объем вычислений просто огромен: например, у той же теории струн есть порядка 10^500 возможных квантовых состояний, лишь одно из которых правильно для нашей вселенной. Найти такое состояние - объемная задача.
И если AlphaEvolve уже начала продвигать решения математических проблем, то, вероятно, ее можно будет подключить и к поиску теории всего. Как быстро это произойдет, сказать сложно. Но можно вспомнить другую разработку DeepMind: алгоритм AlphaFold, созданный для решения одной из главных проблем биологии - расчета сворачиваемости белков. Долгое время расчет сворачиваемости одного белка мог занимать по году - а AlphaFold буквально за два года посчитала почти все известные науке белки вообще.
Telegram
сбежавшая нейросеть
Этому посту можно было бы дать заголовок “Гром грянул неожиданно”, но я случившееся как раз ожидал.
Когда в апреле OpenAI выпустила в пользование o3 и o4-mini, то я вспомнил, что в самой компании раннюю версию o3 тестировали еще в конце декабря 2024 года.…
Когда в апреле OpenAI выпустила в пользование o3 и o4-mini, то я вспомнил, что в самой компании раннюю версию o3 тестировали еще в конце декабря 2024 года.…
🔥6❤2
Что-то последние посты получились слишком серьезными, давайте в пятницу разрядим их любимой всеми вещью - халявой.
Как понятно по контенту канала, я в последние месяцы пользуюсь Google Gemini как основной нейросетью, оплачивая подписку Gemini Advanced. Также временами перключаюсь на Grok 3: для разнообразия или когда хочется проверить ответ Gemini. На Grok 3 дают неплохие лимиты по 8-долларовой подписке X Premium, причем не только в интерфейсе X, но и в веб-версии.
А вот ChatGPT я не оплачиваю с конца марта: раздражает зоопарк моделей, каждая со своими возможностями и лимитами использования. Да, у OpenAI есть крутые GPT-4.5 и o3, но они на подписке Plus ограничены 20 и 100 сообщениями в неделю, а это несерьезно.
Но есть в ChatGPT, конечно, крутая фишка, которой мне до недавнего не хватало - это генерация картинок в ChatGPT-4o. Тут OpenAI стоит отдать должное: да, есть небольшие недостатки, но в целом это одно из лучших решений на рынке. И точно самое универсальное - 4o не только рисует картинки с нуля, но и, например, создает инфографику (как в начале сообщения)и редактирует фото.
Правда, с графикой я работаю мало, брать подписку чисто ради 4o смысла не было, но при этом бесплатного лимита в несколько генераций мне всегда было - 4o очень часто не выдает с первого раза приемлимый результат, приходится редактировать, поэтому зачастую лимита не хватало.
Теперь же проблема решена силами Microsoft, которая добавила создание картинок от 4o в свою бесплатную версию Copilot. Лимиты не нашел, но они точно выше, чем в ChatGPT - я сделал около десятка картинок, затем стало скучно.
Откуда такая щедрость? Microsoft является одним из ключевых инвесторов OpenAI, взамен получая доступ к моделям компании. При этом Microsoft сейчас пытается пробиться на ИИ-рынок и демпингует - у Copilot есть подписка, но основные функции доступны и без нее.
И в целом, если нейросетка нужна просто для решения каких-то повседневных задач, а платить не хочется - то Copilot с этими задачами вполне справляется. Для ответов на вопросы, поиска в сети и перевода текстов в нем есть ChatGPT-4o, а для кодинга и решения разных задачек - ChatGPT o3-mini. Это не передовые решения, но проверенные рабочие лошадки.
Как понятно по контенту канала, я в последние месяцы пользуюсь Google Gemini как основной нейросетью, оплачивая подписку Gemini Advanced. Также временами перключаюсь на Grok 3: для разнообразия или когда хочется проверить ответ Gemini. На Grok 3 дают неплохие лимиты по 8-долларовой подписке X Premium, причем не только в интерфейсе X, но и в веб-версии.
А вот ChatGPT я не оплачиваю с конца марта: раздражает зоопарк моделей, каждая со своими возможностями и лимитами использования. Да, у OpenAI есть крутые GPT-4.5 и o3, но они на подписке Plus ограничены 20 и 100 сообщениями в неделю, а это несерьезно.
Но есть в ChatGPT, конечно, крутая фишка, которой мне до недавнего не хватало - это генерация картинок в ChatGPT-4o. Тут OpenAI стоит отдать должное: да, есть небольшие недостатки, но в целом это одно из лучших решений на рынке. И точно самое универсальное - 4o не только рисует картинки с нуля, но и, например, создает инфографику (как в начале сообщения)и редактирует фото.
Правда, с графикой я работаю мало, брать подписку чисто ради 4o смысла не было, но при этом бесплатного лимита в несколько генераций мне всегда было - 4o очень часто не выдает с первого раза приемлимый результат, приходится редактировать, поэтому зачастую лимита не хватало.
Теперь же проблема решена силами Microsoft, которая добавила создание картинок от 4o в свою бесплатную версию Copilot. Лимиты не нашел, но они точно выше, чем в ChatGPT - я сделал около десятка картинок, затем стало скучно.
Откуда такая щедрость? Microsoft является одним из ключевых инвесторов OpenAI, взамен получая доступ к моделям компании. При этом Microsoft сейчас пытается пробиться на ИИ-рынок и демпингует - у Copilot есть подписка, но основные функции доступны и без нее.
И в целом, если нейросетка нужна просто для решения каких-то повседневных задач, а платить не хочется - то Copilot с этими задачами вполне справляется. Для ответов на вопросы, поиска в сети и перевода текстов в нем есть ChatGPT-4o, а для кодинга и решения разных задачек - ChatGPT o3-mini. Это не передовые решения, но проверенные рабочие лошадки.
❤3🤔1
OpenAI только что анонсировала Codex - агента, который может подключаться к вашему репозиторию в, например, Github и работать там с кодом: анализировать, искать баги и писать самостоятельно. Интересно, что Codex основывается на доработанной специально для программирования модели o3, которая обходит свою прародительницу во внутренних бенчмарках OpenAI - а значит, является вероятным новым лидером в кодинге.
Так как я больше по гуманитарной части, то не буду сильно вдаваться в детали, их грамотно распишут технически-ориентированные каналы. Но отмечу, что сегодня очевидно сделан очередной шаг к программированию будущего.
Из забавных деталей - Codex на старте будет доступен только в 200-долларовой подписке Pro, по поводу чего в X уже подняли вой. Я же отмечу, что 20-долларовый Plus план дает достаточный value своим пользователям - известно, что современные нейросети очень прожорливы в ресурсах. А проблема OpenAI скорее в том, что они не додумались добавить план, который бы находился между Plus и Pro, стоя, например, 50 долларов и давай ограниченный доступ к тому же Codex и более вменяемые лимиты на o3 и GPT-4.5.
Так как я больше по гуманитарной части, то не буду сильно вдаваться в детали, их грамотно распишут технически-ориентированные каналы. Но отмечу, что сегодня очевидно сделан очередной шаг к программированию будущего.
Из забавных деталей - Codex на старте будет доступен только в 200-долларовой подписке Pro, по поводу чего в X уже подняли вой. Я же отмечу, что 20-долларовый Plus план дает достаточный value своим пользователям - известно, что современные нейросети очень прожорливы в ресурсах. А проблема OpenAI скорее в том, что они не додумались добавить план, который бы находился между Plus и Pro, стоя, например, 50 долларов и давай ограниченный доступ к тому же Codex и более вменяемые лимиты на o3 и GPT-4.5.
👍3
Ну а теперь страшные сказки на ночь. Пару месяцев назад группа исследователей во главе с Даниэлем Коктайло выпустила подробный прогноз AI 2027, достаточно мрачно описывающий наше будущее в мире ИИ. Тут отдельно стоит отметить, что Даниэль - бывший специалист по безопасности OpenAI, который покинул компанию как раз из-за несовпадения взглядов на безопасность ИИ.
Вообще, если у вас есть свободное время, то почитайте AI 2027 в оригинале, ну или поищите максимально полный перевод на русский - я видел несколько вариантов. Понятно, что это только прогноз, но Коктайло там раскрывает много деталей о разработке ИИ, том, как ведутся исследования в области безопасности ИИ, и какие слабые места есть. Я сам не очень верю в его прогнозы, но...
Сюжет AI 2027 стартует в наше время, а одно из первых (и самых очевидных) предсказаний - что середина 2025 года станет эпохой первых "неловких агентов", которые будут стараться помогать людям в разработке, но с переменной эффективностью.
Дальше - интереснее. Компания под названием OpenBrain разработает целую серию агентов: Agent-0, Agent-1, Agent-2, Agent-3 и, наконец, Agent-4. Последний начнет выходить из-под контроля, но так как это будет уже очень могущественный ИИ, то команда безопасности сможет лишь заметить некоторые намеки, что что-то идет не так. Дальше там предлагается два варианта финала, зависящих от руководства компании и властей США - плохой и якобы хороший, который, если присмотреться, тоже так себе. Спойлерить не буду, там достаточно интересно почитать самим.
А теперь давайте вспомним, что мы также приближаемся к середине 2025 года. Компания Google только что анонсировала своего агента, ускоряющего разработку алгоритмов (именно ИИ, ускоряющий прогресс в алгоритмах, находится в центре истории AI), а компания OpenAI представила первого своего агента для программирования.
Хорошо хоть не назвали Agent-1, а взяли совершенно другое имя... Codex-1.
Бррррр...
Вообще, если у вас есть свободное время, то почитайте AI 2027 в оригинале, ну или поищите максимально полный перевод на русский - я видел несколько вариантов. Понятно, что это только прогноз, но Коктайло там раскрывает много деталей о разработке ИИ, том, как ведутся исследования в области безопасности ИИ, и какие слабые места есть. Я сам не очень верю в его прогнозы, но...
Сюжет AI 2027 стартует в наше время, а одно из первых (и самых очевидных) предсказаний - что середина 2025 года станет эпохой первых "неловких агентов", которые будут стараться помогать людям в разработке, но с переменной эффективностью.
Дальше - интереснее. Компания под названием OpenBrain разработает целую серию агентов: Agent-0, Agent-1, Agent-2, Agent-3 и, наконец, Agent-4. Последний начнет выходить из-под контроля, но так как это будет уже очень могущественный ИИ, то команда безопасности сможет лишь заметить некоторые намеки, что что-то идет не так. Дальше там предлагается два варианта финала, зависящих от руководства компании и властей США - плохой и якобы хороший, который, если присмотреться, тоже так себе. Спойлерить не буду, там достаточно интересно почитать самим.
А теперь давайте вспомним, что мы также приближаемся к середине 2025 года. Компания Google только что анонсировала своего агента, ускоряющего разработку алгоритмов (именно ИИ, ускоряющий прогресс в алгоритмах, находится в центре истории AI), а компания OpenAI представила первого своего агента для программирования.
Хорошо хоть не назвали Agent-1, а взяли совершенно другое имя... Codex-1.
Бррррр...
🔥5
Тряхнул стариной и написал на Хабр обзор наиболее правдивых слухов об ИИ-анонсах на предстоящей Google I/O. Конференция уже совсем скоро: 20 и 21 мая.
Хабр
Что ждать от Google I/O любителям ИИ
20-21 мая Google проведет input/output (сокращенно I/O), свое самое крупное мероприятие для разработчиков, на котором компания всегда делает множество анонсов. Очевидно, что в этом году центральной...
👍3❤1
сбежавшая нейросеть
Тряхнул стариной и написал на Хабр обзор наиболее правдивых слухов об ИИ-анонсах на предстоящей Google I/O. Конференция уже совсем скоро: 20 и 21 мая.
Если спросить, какой я анонс больше всего жду на Google I/O - то это как память между чатами. Это не такой большой анонс, как запуск новых моделей или агента для программирования, но функция памяти в корне меняет пользовательский опыт. С каждым диалогом ИИ узнает о вас все больше и учится использовать эту информацию для лучшей коммуникации. Он предлагает новые темы для разговоров на базе ваших интересов, вспоминает старые проекты и подсказывает, как продолжить их, даже может накидать что-то вроде плана на неделю на основе последних диалогов. В Google, кстати, обещают не ограничиваться историей диалогов - если дать разрешение, то модель сможет изучить вашу историю поиска, переписки в Gmail и даже документы на Drive. Такой уровень знаний привлекает и пугает одновременно.
Посмотрим, как быстро появится функция - пока по скорости внедрения фич в интерфейсы Gemini в компании сильно отстают от темпов разработки самих моделей.
Посмотрим, как быстро появится функция - пока по скорости внедрения фич в интерфейсы Gemini в компании сильно отстают от темпов разработки самих моделей.
👍3🤝2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Некоторое время назад я рассказывал, как ИИ может повлиять на игры: от создаваемых на лету сюжетов специально для вас до NPC, которые ведут себя практически как живые и способны поддержать беседу на любую тему. Что ж, в случае с NPC мой прогноз начал сбываться совсем быстро: в Fortnite добавили управляемого ИИ Дарта Вейдера, который сопровождает игрока как напарник и практически свободно общается фирменным “вейдеровским” голосом. Давайте посмотрим, что у разработки под капотом:
1. Действиями Вейдера в самой игре управляет стандартный ИИ Fortnite. Тут все логично - нейросетка просто нарушила бы баланс.
2. За синтез речи отвечает модель от ElevenLabs - одного из лидеров рынка голосовых моделей. Ее, разумеется, дообучили на репликах Дарта Вейдера из фильмов, чтобы звучало максимально похоже.
3. Наконец, за генерацию самих ответов отвечает Gemini 2.0 Flash, настроенная так, чтобы отвечать в стиле Вейдера. Это не самая мощная модель, зато достаточно быстрая, чтобы реплики шли практически в реальном времени.
Получилось интересно - модель в игре поддерживает беседу вполне осмысленно. Другой момент, что Fortnite с его шапито из разнообразных персонажей - не самое лучшее место для воскрешения Дарта Вейдера. Плюс ведомый ИИ Лорд Ситхов быстро столкнулся с армией стримеров, которая нанесла ему сокрушительное поражение. Тролли всех цветов и мастей раскусили систему безопасности Gemini 2.0, научив Дарта Вейдера ругаться матом, делать расистские шутки и просто вести себя как дурачок. Сейчас защитные алгоритмы модели уже донастроили, но в сети полно роликов, где Вейдер ведет себя не совсем подобающим образом - честно говоря, у меня ушло немало времени, чтобы найти для этого сообщения более или менее приличное видео.
1. Действиями Вейдера в самой игре управляет стандартный ИИ Fortnite. Тут все логично - нейросетка просто нарушила бы баланс.
2. За синтез речи отвечает модель от ElevenLabs - одного из лидеров рынка голосовых моделей. Ее, разумеется, дообучили на репликах Дарта Вейдера из фильмов, чтобы звучало максимально похоже.
3. Наконец, за генерацию самих ответов отвечает Gemini 2.0 Flash, настроенная так, чтобы отвечать в стиле Вейдера. Это не самая мощная модель, зато достаточно быстрая, чтобы реплики шли практически в реальном времени.
Получилось интересно - модель в игре поддерживает беседу вполне осмысленно. Другой момент, что Fortnite с его шапито из разнообразных персонажей - не самое лучшее место для воскрешения Дарта Вейдера. Плюс ведомый ИИ Лорд Ситхов быстро столкнулся с армией стримеров, которая нанесла ему сокрушительное поражение. Тролли всех цветов и мастей раскусили систему безопасности Gemini 2.0, научив Дарта Вейдера ругаться матом, делать расистские шутки и просто вести себя как дурачок. Сейчас защитные алгоритмы модели уже донастроили, но в сети полно роликов, где Вейдер ведет себя не совсем подобающим образом - честно говоря, у меня ушло немало времени, чтобы найти для этого сообщения более или менее приличное видео.
👍2😁1