This media is not supported in your browser
VIEW IN TELEGRAM
431👍272🤔80🔥40😨21❤16🤯11❤🔥10😁5🥰4🍓4👏1
Часто вижу мнение, что тот ИИ, который есть сейчас, не является настоящим ИИ.
Причины могут быть самые разные: он не учится в процессе диалогов, не дотягивает до уровня человека и так далее. В русскоязычном интернете даже как-то осуждаемо называть все это ИИ, и кажется, что это появилось недавно, несколько лет назад такого не было.
Тут акцентирую внимание на русскоязычной среде, потому что например в англоязычной такого нет, там все нейросети постоянно называют AI. Получается, что это определение "не ИИ" появилось только у нас и довольно недавно. И, что еще интересно, никогда никого не смущало, что поведение NPC в играх называют ИИ, хотя этот ИИ на много порядков проще современных моделей.
Получается, проблема только в том, как мы для себя формулируем определение ИИ. (Кто-то еще может сказать, что ИИ - это область науки, а не конкретный объект, но это уже будет другой контекст).
Если мы все-таки вернемся к определениям, где ИИ не обязательно быть достаточно продвинутым, то это открывает возможность выстроить например такую градацию:
• Узкий ИИ - это ИИ, который решает конкретную задачу, например, распознавание лиц, игра в шахматы
• Общий ИИ (AGI) - это ИИ, который умеет решать любые задачи
• Сверхинтеллект (ASI) - это ИИ, который умеет решать любые задачи лучше человека
И если с узким ИИ и сверхинтеллектом все примерно понятно, то вот с AGI, то есть общим, или, как его еще называют, сильным ИИ, все сложнее.
Например, можно сказать, что GPT-3 - это уже AGI, потому что он умеет решать любые задачи, пусть и в виде текста. В прошлом часто именно так и формулировали определение AGI, вспоминаем например тест Тьюринга, хотя в изначальной своей формулировке он был про то, может ли машина мыслить, но это уже другая история.
Если вам кажется, что назвать GPT-3 AGI - это слишком, то вот другая точка зрения, которую однажды высказал Ян Лекун - один из основных исследователей в области ИИ: AGI не может быть достигнут, потому что общего интеллекта не существует. Даже человек не умеет решать все задачи, а значит, и его интеллект не является общим.
Как видим, все очень сильно зависит от определения. И обычно лучший вариант - это выбрать наиболее удобное определение для всех.
Я тут показал два очень отдаленных друг от друга определения, и наверно удобное определение будет где-то посередине. Например, можно сказать, что AGI - это ИИ, который может решать задачи (с использованием компьютера) на уровне среднего человека
Причины могут быть самые разные: он не учится в процессе диалогов, не дотягивает до уровня человека и так далее. В русскоязычном интернете даже как-то осуждаемо называть все это ИИ, и кажется, что это появилось недавно, несколько лет назад такого не было.
Тут акцентирую внимание на русскоязычной среде, потому что например в англоязычной такого нет, там все нейросети постоянно называют AI. Получается, что это определение "не ИИ" появилось только у нас и довольно недавно. И, что еще интересно, никогда никого не смущало, что поведение NPC в играх называют ИИ, хотя этот ИИ на много порядков проще современных моделей.
Получается, проблема только в том, как мы для себя формулируем определение ИИ. (Кто-то еще может сказать, что ИИ - это область науки, а не конкретный объект, но это уже будет другой контекст).
Если мы все-таки вернемся к определениям, где ИИ не обязательно быть достаточно продвинутым, то это открывает возможность выстроить например такую градацию:
• Узкий ИИ - это ИИ, который решает конкретную задачу, например, распознавание лиц, игра в шахматы
• Общий ИИ (AGI) - это ИИ, который умеет решать любые задачи
• Сверхинтеллект (ASI) - это ИИ, который умеет решать любые задачи лучше человека
И если с узким ИИ и сверхинтеллектом все примерно понятно, то вот с AGI, то есть общим, или, как его еще называют, сильным ИИ, все сложнее.
Например, можно сказать, что GPT-3 - это уже AGI, потому что он умеет решать любые задачи, пусть и в виде текста. В прошлом часто именно так и формулировали определение AGI, вспоминаем например тест Тьюринга, хотя в изначальной своей формулировке он был про то, может ли машина мыслить, но это уже другая история.
Если вам кажется, что назвать GPT-3 AGI - это слишком, то вот другая точка зрения, которую однажды высказал Ян Лекун - один из основных исследователей в области ИИ: AGI не может быть достигнут, потому что общего интеллекта не существует. Даже человек не умеет решать все задачи, а значит, и его интеллект не является общим.
Как видим, все очень сильно зависит от определения. И обычно лучший вариант - это выбрать наиболее удобное определение для всех.
Я тут показал два очень отдаленных друг от друга определения, и наверно удобное определение будет где-то посередине. Например, можно сказать, что AGI - это ИИ, который может решать задачи (с использованием компьютера) на уровне среднего человека
👍215🔥33👾23❤17🤔12🗿8🤯7👏5🎄4❤🔥3👎2
Как считаете, к какому примерно году появится AGI? (ИИ, который сможет выполнять любые задачи с использованием компьютера как минимум на уровне среднего человека)
Anonymous Poll
14%
2025
40%
2030
17%
2035
10%
2040
3%
2045
3%
2050
13%
после 2050
👍88🤔73🐳16👎6🔥6👻3❤2👾2🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
😁330🐳63⚡33🔥22👍14🤔13👾10❤🔥6🎅5❤3👎3
Там кстати OpenAI наконец-то выпускают Sora - модель для генерации видео.
Но я все это время гораздо больше ждал, когда GPT-4o сможет генерировать картинки благодаря своей мультимодальности. Эту фичу они показали еще в мае, и с того времени больше об этом не напоминали. По-моему, это будет даже круче, чем генерация видео
Но я все это время гораздо больше ждал, когда GPT-4o сможет генерировать картинки благодаря своей мультимодальности. Эту фичу они показали еще в мае, и с того времени больше об этом не напоминали. По-моему, это будет даже круче, чем генерация видео
Telegram
Onigiri
Видели новую презентацию от OpenAI? Оказывается, там показали далеко не все.
Так как новая модель мультимодальная, она может не просто понимать интонацию, отвечать разными голосами или петь, как показали в презентации. Но она еще может генерировать звуки…
Так как новая модель мультимодальная, она может не просто понимать интонацию, отвечать разными голосами или петь, как показали в презентации. Но она еще может генерировать звуки…
50🔥81🐳22👍21👾7❤4❤🔥2👀1🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Sora уже работает. Конечно же я сгенерировал фрактал
30🤯192👾58🔥44😁23👍21❤13🤩8🐳5👏4👎3💋1
This media is not supported in your browser
VIEW IN TELEGRAM
Еще попросил Sora сгенерировать стихи про онигири, чтобы проверить, как она генерирует текст. Выглядит он по качеству картинки очень даже хорошо для нейросетей, если не считать, что одни и те же символы повторяются много раз. А еще он на японском, но оно и понятно, ведь онигири - японская еда🍙
Кстати sora переводится как "небо" с японского
Кстати sora переводится как "небо" с японского
50👾128🔥99👍15😁12🐳9🤯4❤3🍾2👎1🤡1🌭1
Только вчера я писал о том, что жду, когда GPT сможет полноценно создавать и редактировать картинки по описанию, а не как это делается сейчас, ведь текущие диффузионные модели плохо понимают сложные описания картинок.
И да, в последнее время появляются более продвинутые модели с архитектурой diffusion transformer, например, Stable Diffusion 3 или Flux, но трансформерная часть у них совсем небольшая по сравнению с той же GPT-4o, да и полноценно редактировать картинки они пока не умеют.
И тут xAI выпускают авторегрессионную модель, как я и ждал. Она даже может немного генерировать текст на русском, хотя на английском гораздо лучше, но в целом по качеству ей все еще далеко до того, что показывали OpenAI. А функция редактирования как обычно будет позже🤬
И да, в последнее время появляются более продвинутые модели с архитектурой diffusion transformer, например, Stable Diffusion 3 или Flux, но трансформерная часть у них совсем небольшая по сравнению с той же GPT-4o, да и полноценно редактировать картинки они пока не умеют.
И тут xAI выпускают авторегрессионную модель, как я и ждал. Она даже может немного генерировать текст на русском, хотя на английском гораздо лучше, но в целом по качеству ей все еще далеко до того, что показывали OpenAI. А функция редактирования как обычно будет позже
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
50🔥183❤25👍22🐳15🤔8👾4😁3💩2🌚1
Попалась интересная статья про то, насколько хорошо нейросети умеют выполнять задачи машинного обучения по сравнению с людьми.
Тут особенно важно то, что это задачи в сфере машинного обучения, так как когда нейросети научатся их решать лучше людей, то дальше они смогут улучшать сами себя.
Оказывается, что если задача занимает меньше 4 часов, то в среднем нейросети решают ее немного лучше людей. Но если задача больше, то тут люди пока еще сильно впереди
Тут особенно важно то, что это задачи в сфере машинного обучения, так как когда нейросети научатся их решать лучше людей, то дальше они смогут улучшать сами себя.
Оказывается, что если задача занимает меньше 4 часов, то в среднем нейросети решают ее немного лучше людей. Но если задача больше, то тут люди пока еще сильно впереди
51❤🔥176👍64😱19🤨14❤11🤯7🔥6🐳4☃3🌚2🙏1
Я тут кстати поучаствовал в видео https://youtu.be/Dsp2icl0r8s на канале DS Astro
Если что, это вторая часть видео, можно начать с первой, она чуть покороче: https://youtu.be/QCD1waeX9Ws
Если что, это вторая часть видео, можно начать с первой, она чуть покороче: https://youtu.be/QCD1waeX9Ws
YouTube
ВЕСЬ МИР ПРОТИВ ЭЙНШТЕЙНА И ТЕОРИИ ОТНОСИТЕЛЬНОСТИ [док.фильм часть 2]
Вакансии в той самой финтех-компании, где можно работать удалённо по всему миру: https://tchk.me/tLZwcw
Сегодня мы продолжим подробно копаться в истории жизни Альберта Эйнштейна, и на этот раз у нас история создания общей теории относительности. В чем ее…
Сегодня мы продолжим подробно копаться в истории жизни Альберта Эйнштейна, и на этот раз у нас история создания общей теории относительности. В чем ее…
52❤95👍22🐳10🗿5🤔4🎄4😍3👎2🤩1
ИИ развивается все быстрее и быстрее. Что будет в 2025? Попробую примерно угадать по текущим трендам.
Генерация изображений
Я уже много здесь писал про возможность для нейросетей детально понимать и менять изображения. Сейчас картинки генерируются без детального понимания мультимодального контекста. Нельзя нейросеть попросить сгенерировать логотип, и потом сказать: "а сделай обводку потолще". При этом, подобные технологии уже показали и OpenAI, и Google, и xAI, и даже опенсорсные модели скидывали в комментах под предыдущими постами.
Так много про это пишу, потому что считаю, что это очень важный момент. Представьте, что через год можно будет скинуть нейросети мем и попросить не просто поменять надпись, а еще и поместить персонажа в совсем новую ситуацию, что до этого никто не рисовал. А когда-нибудь нейросети научатся шутить и будут бесконечно генерировать мемы.
Мультимодальность
Все не ограничится только картинками. Уже сейчас нейросети неплохо генерируют музыку, голос и даже 3D-модели. Скорее всего, в следующем году нейросети смогут генерировать контент в еще большем количестве областей и с более детальным пониманием контекста.
Агенты
Представим, что у нас есть ИИ-помощник, которому мы говорим установить Minecraft со списком модов, которые нам нужны. Чтобы выполнить эту задачу, нейросети потребуется сделать много шагов, а в каждом из них она может сделать ошибку. Из-за большого количества этих шагов, ошибка становится почти неизбежной, поэтому такие ИИ-агенты пока не особо распространены.
Но нейросети становятся лучше. К тому же, в этом году мы увидели модели o1 и даже o3, которые дообучены на последовательностях рассуждений. В теории можно теперь подобными методами дообучить нейросеть на последовательностях действий, и в следующем году мы скорее всего увидим что-то подобное.
Генерация видео
Когда в прошлом году многие говорили, что уже через год будет доступна генерация видео, мне казалось, что это вряд ли произойдет так быстро, и для этого потребуется еще несколько лет. А сейчас эта технология уже работает, хотя по качеству её можно сравнить с генерацией изображений середины 2022 года. Генерация видео все еще находится на начальных этапах.
С другой стороны, в 2022 году генерация изображений была чем-то очень экспериментальным, а сейчас уже целый год крупные компании обучают модели генерации видео. Поэтому мне снова кажется, что в следующем году её качество не улучшится значительно.
Роботы
Про роботов говорят уже очень давно, и за последние 10 лет мы увидели интересные примеры от Boston Dynamics. Однако именно в 2024 году появилось большое количество новых роботов от разных компаний. Думаю, что в следующем году ранние прототипы роботов, умеющих разговаривать, ориентироваться в пространстве и выполнять небольшие задания, уже начнут поступать в продажу. Мы увидим многочисленные популярные обзоры на них, но пока большое распространение они, конечно же, получить не успеют.
Генерация изображений
Я уже много здесь писал про возможность для нейросетей детально понимать и менять изображения. Сейчас картинки генерируются без детального понимания мультимодального контекста. Нельзя нейросеть попросить сгенерировать логотип, и потом сказать: "а сделай обводку потолще". При этом, подобные технологии уже показали и OpenAI, и Google, и xAI, и даже опенсорсные модели скидывали в комментах под предыдущими постами.
Так много про это пишу, потому что считаю, что это очень важный момент. Представьте, что через год можно будет скинуть нейросети мем и попросить не просто поменять надпись, а еще и поместить персонажа в совсем новую ситуацию, что до этого никто не рисовал. А когда-нибудь нейросети научатся шутить и будут бесконечно генерировать мемы.
Мультимодальность
Все не ограничится только картинками. Уже сейчас нейросети неплохо генерируют музыку, голос и даже 3D-модели. Скорее всего, в следующем году нейросети смогут генерировать контент в еще большем количестве областей и с более детальным пониманием контекста.
Агенты
Представим, что у нас есть ИИ-помощник, которому мы говорим установить Minecraft со списком модов, которые нам нужны. Чтобы выполнить эту задачу, нейросети потребуется сделать много шагов, а в каждом из них она может сделать ошибку. Из-за большого количества этих шагов, ошибка становится почти неизбежной, поэтому такие ИИ-агенты пока не особо распространены.
Но нейросети становятся лучше. К тому же, в этом году мы увидели модели o1 и даже o3, которые дообучены на последовательностях рассуждений. В теории можно теперь подобными методами дообучить нейросеть на последовательностях действий, и в следующем году мы скорее всего увидим что-то подобное.
Генерация видео
Когда в прошлом году многие говорили, что уже через год будет доступна генерация видео, мне казалось, что это вряд ли произойдет так быстро, и для этого потребуется еще несколько лет. А сейчас эта технология уже работает, хотя по качеству её можно сравнить с генерацией изображений середины 2022 года. Генерация видео все еще находится на начальных этапах.
С другой стороны, в 2022 году генерация изображений была чем-то очень экспериментальным, а сейчас уже целый год крупные компании обучают модели генерации видео. Поэтому мне снова кажется, что в следующем году её качество не улучшится значительно.
Роботы
Про роботов говорят уже очень давно, и за последние 10 лет мы увидели интересные примеры от Boston Dynamics. Однако именно в 2024 году появилось большое количество новых роботов от разных компаний. Думаю, что в следующем году ранние прототипы роботов, умеющих разговаривать, ориентироваться в пространстве и выполнять небольшие задания, уже начнут поступать в продажу. Мы увидим многочисленные популярные обзоры на них, но пока большое распространение они, конечно же, получить не успеют.
55🐳97👍76🔥30❤16😭7🎄6👎4🍾3😁2🆒2⚡1
Новое видео!
https://www.youtube.com/watch?v=0wEqbcHaWBI
https://www.youtube.com/watch?v=0wEqbcHaWBI
YouTube
Предел развития НЕЙРОСЕТЕЙ
Выбирайте подходящие сервисы для хранения данных в Selectel: https://slc.tl/3x12w
Telegram: https://t.me/onigiriScience
Discord Стрелочек: https://discord.gg/Ud3x8jsrCZ
Boosty https://boosty.to/onigiriscience
Моя игра - Стрелочки: https://logic-arrows.io…
Telegram: https://t.me/onigiriScience
Discord Стрелочек: https://discord.gg/Ud3x8jsrCZ
Boosty https://boosty.to/onigiriscience
Моя игра - Стрелочки: https://logic-arrows.io…
112🐳141🔥85❤30👍24☃12⚡7🎄6🤣5🤨2🆒2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
15🔥342🤯96👍54❤18❤🔥15⚡6🎉5👾5🥰4🦄3🏆2
Когда загружал видео для предыдущего поста, телеграм написал, что видео будет оптимизировано. Это что-то новое, раньше я такого не видел.
В результате из 15 мегабайт телеграм сжал видео в 19😅
(хотя если скачать, то оно весит 15 как и должно)
Но почему оно изначально весило всего 15MB? Я часто вижу в других каналах короткие видео на сотни мегабайт. Но вы могли заметить, что у меня видео весят на порядок меньше. Например, видео из предыдущего поста тоже изначально занимало 461MB, поэтому рассказываю.
Видео я сжимаю через FFmpeg. Это опенсорсная библиотека, которая позволяет конвертировать, монтировать и даже накладывать фильтры на видео, звук и картинки. FFmpeg используется даже ровером Perseverance на Марсе. Основная сложность в том, что у FFmpeg нет графического интерфейса, и надо пользоваться командной строкой или вызывать его из кода. Но это все-таки канал про программирование, поэтому должно быть не так страшно.
Для телеги я обычно использую команду
Где input - это название изначального видео, которое мы хотим сжать, а output - название нового файла. Выполнить эту команду нужно в командной строке, в папке, где лежит видео (с установленным на комп FFmpeg). Если нужно сжать сильнее, то обычно использую
Где 720x1280 - разрешение видео (оно обычно изначально больше, поэтому уменьшаю), а -crf 32 - это степень сжатия. Чем больше число, тем хуже качество, но меньше вес.
Кстати в последние пару лет пользоваться FFmpeg стало гораздо проще, потому что нужную команду можно просто спросить у ChatGPT, он их отлично знает
В результате из 15 мегабайт телеграм сжал видео в 19😅
(хотя если скачать, то оно весит 15 как и должно)
Но почему оно изначально весило всего 15MB? Я часто вижу в других каналах короткие видео на сотни мегабайт. Но вы могли заметить, что у меня видео весят на порядок меньше. Например, видео из предыдущего поста тоже изначально занимало 461MB, поэтому рассказываю.
Видео я сжимаю через FFmpeg. Это опенсорсная библиотека, которая позволяет конвертировать, монтировать и даже накладывать фильтры на видео, звук и картинки. FFmpeg используется даже ровером Perseverance на Марсе. Основная сложность в том, что у FFmpeg нет графического интерфейса, и надо пользоваться командной строкой или вызывать его из кода. Но это все-таки канал про программирование, поэтому должно быть не так страшно.
Для телеги я обычно использую команду
ffmpeg -i input.mp4 -vcodec libx265 output.mp4
Где input - это название изначального видео, которое мы хотим сжать, а output - название нового файла. Выполнить эту команду нужно в командной строке, в папке, где лежит видео (с установленным на комп FFmpeg). Если нужно сжать сильнее, то обычно использую
ffmpeg -i input.mp4 -vcodec libx265 -crf 32 -s 720x1280 output.mp4
Где 720x1280 - разрешение видео (оно обычно изначально больше, поэтому уменьшаю), а -crf 32 - это степень сжатия. Чем больше число, тем хуже качество, но меньше вес.
Кстати в последние пару лет пользоваться FFmpeg стало гораздо проще, потому что нужную команду можно просто спросить у ChatGPT, он их отлично знает
5🔥368👍99❤🔥24❤21👏15👨💻6🤨5⚡4👻1💘1
Продолжение к позапрошлому посту про многомерные многогранники. Часть 2 из 3.
//Fix: когда говорю, что додекаэдра нет в пятимерном пространстве, имею в виду, что нет его пятимерных аналогов
👍108🔥15❤10🥰6⚡2😱2❤🔥1👏1😁1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
❤139🔥66🤔30🤯20👍16✍9❤🔥6🤓6😱4🥰3🗿3
This media is not supported in your browser
VIEW IN TELEGRAM
😁186🐳38🤣26👍7🤯6🤔5❤🔥4🔥4😭3👀2⚡1