This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, который мы заслужили
This media is not supported in your browser
VIEW IN TELEGRAM
Tesla Optimus изучает кунг-фу.
НО ЗАЧЕМ??? Нам всем надо к чему-то готовиться?
НО ЗАЧЕМ??? Нам всем надо к чему-то готовиться?
К вот этому посту, про поиск ошибок в Википедии с помощью нейронок.
Илон Маск пообещал, что через пару недель покажет прототип Грокипедии, "самый точный источник знаний для людей и ИИ".
По сути, это будет та же Википедия, переписанная самим Grok’ом: он будет смотреть на статьи и решать, что правда, что ложь, что требует правки. А потом заново писать их "в духе истины".
Звучит красиво и интересно, но что-то мне подсказывает, что пользоваться этим почти никто не будет.
Илон Маск пообещал, что через пару недель покажет прототип Грокипедии, "самый точный источник знаний для людей и ИИ".
По сути, это будет та же Википедия, переписанная самим Grok’ом: он будет смотреть на статьи и решать, что правда, что ложь, что требует правки. А потом заново писать их "в духе истины".
Звучит красиво и интересно, но что-то мне подсказывает, что пользоваться этим почти никто не будет.
This media is not supported in your browser
VIEW IN TELEGRAM
Вот это реально будущее, а не эти ваши летающие машины и кибер-импланты.
6383839394 лет мы эволюционировали именно ради этого.
видео покрал отсюда
6383839394 лет мы эволюционировали именно ради этого.
видео покрал отсюда
Forwarded from Zavtracast (Ярослав Ивус)
This media is not supported in your browser
VIEW IN TELEGRAM
В китайском городе Люян произошёл дождь из квадрокоптеров. Они начали падать на зрителей шоу, так как организаторы решили, что объединить дроны и фейерверки — хорошая идея.
В итоге некоторые дроны загорелись и полетели вниз.
@zavtracast
В итоге некоторые дроны загорелись и полетели вниз.
@zavtracast
Там казахи совсем усилились и ввели нейронку в совет директоров государственного фонда. Не как консультанта, не как чат-бота для кофе-брейков, а именно как официального члена правления с правом голоса.
Ее имя SKAI (Samruk-Kazyna Artificial Intelligence). Теперь она заседает в совете фонда «Самрук-Казына», который крутит активами страны на 81 миллиарда баксов.
Хостится эта железяка на суперкомпьютере Al Farabium, построенного на железе NVIDIA, жрёт все решения совета, чтобы понимать, кто где налажал, кто где напилил и откатил. Работает в закрытой сети, чтобы ни один байт не сбежал за границу.
Ждём, когда она предложит оптимизировать совет директоров, оставив в нём только себя.
тут подробнее
Ее имя SKAI (Samruk-Kazyna Artificial Intelligence). Теперь она заседает в совете фонда «Самрук-Казына», который крутит активами страны на 81 миллиарда баксов.
Хостится эта железяка на суперкомпьютере Al Farabium, построенного на железе NVIDIA, жрёт все решения совета, чтобы понимать, кто где налажал, кто где напилил и откатил. Работает в закрытой сети, чтобы ни один байт не сбежал за границу.
Ждём, когда она предложит оптимизировать совет директоров, оставив в нём только себя.
тут подробнее
The Times Of Central Asia
Artificial Intelligence Joins Board of Directors at Samruk-Kazyna
For the first time in Central Asia, a neural network has been appointed to the board of directors of a major state fund. The SKAI system (Samruk-Kazyna
Forwarded from Psy Eyes
Замена персонажа в существующем видео с сохранением липсинка и освещения.
Локально на 5090 в Comfy с помощью Wan Animate. На первое видео разрешением 1024х576 в 4 шага ушёл 1 час, на второе 35 мин.
А Sora так может?
Твит
Локально на 5090 в Comfy с помощью Wan Animate. На первое видео разрешением 1024х576 в 4 шага ушёл 1 час, на второе 35 мин.
А Sora так может?
Твит
Давным давно было замечено, что видеогенераторы весело лажают если попросить их сгенерировать видео с человеком вверх ногами, а после перевернуть это видео на 180 градусов.
Новая сора тоже этим болеет
Новая сора тоже этим болеет
This media is not supported in your browser
VIEW IN TELEGRAM
Чот аж в голосину порвался с этой олимпиады
Интересная статья от Google, MIT и Гарварда: TUMIX: Multi-Agent Test-Time Scaling with Tool-Use Mixture.
Краткая суть: современные модели (ChatGPT Agent, Gemini-Pro и т.д.) умеют подключать интерпретатор кода и поиск в интернете, но не существует чётких правил, когда и как использовать тот или иной инструмент.
Решение простое и одновременно гениальное, как дверь от сарая — запускаем несколько агентов параллельно, каждый со своей стратегией: одни генерят текст, другие дрочат код, третьи шуршат в поиске, четвёртые пытаются всё это непотребство объединить.
На каждом шаге они видят ответы друг друга и создают новые версии решения.
Специально обученный "нейро-судья" под капотом решает, когда остановить этот балаган (когда ответы становятся более-менее согласованными). Итоговый ответ выбирается голосованием или оценкой самой модели.
В итоге весь этот Франкенштейн показывает на 17,4 % больше точности и жрёт почти вдвое меньше вычислений, чем предыдущие системы рассуждений.
Итого: вместо одной головы имеем пятнадцать, и все думают по-разному. А потом дружно соглашаются на самый уверенный бред. И это, судя по бенчмаркам, работает лучше, чем просто "пытаться думать сильнее и умнее"
тут пейпер
код обещают выложить позже
Краткая суть: современные модели (ChatGPT Agent, Gemini-Pro и т.д.) умеют подключать интерпретатор кода и поиск в интернете, но не существует чётких правил, когда и как использовать тот или иной инструмент.
Решение простое и одновременно гениальное, как дверь от сарая — запускаем несколько агентов параллельно, каждый со своей стратегией: одни генерят текст, другие дрочат код, третьи шуршат в поиске, четвёртые пытаются всё это непотребство объединить.
На каждом шаге они видят ответы друг друга и создают новые версии решения.
Специально обученный "нейро-судья" под капотом решает, когда остановить этот балаган (когда ответы становятся более-менее согласованными). Итоговый ответ выбирается голосованием или оценкой самой модели.
В итоге весь этот Франкенштейн показывает на 17,4 % больше точности и жрёт почти вдвое меньше вычислений, чем предыдущие системы рассуждений.
Итого: вместо одной головы имеем пятнадцать, и все думают по-разному. А потом дружно соглашаются на самый уверенный бред. И это, судя по бенчмаркам, работает лучше, чем просто "пытаться думать сильнее и умнее"
тут пейпер
код обещают выложить позже
arXiv.org
TUMIX: Multi-Agent Test-Time Scaling with Tool-Use Mixture
While integrating tools like Code Interpreter and Search has significantly enhanced Large Language Model (LLM) reasoning in models like ChatGPT Agent and Gemini-Pro, practical guidance on optimal...
А вот еще статья, авторы которой утверждают, что если грубить ChatGPT, то он решает задачи немножко лучше и точнее.
Учёные из Пенсильванского университета давали нейронкам решать тесты по разным научным дисциплинам, но формулировали вопросы с разной степенью вежливости: "Будьте добры, решите, пожалуйста, эту задачу", "Реши задачу", "Ты, видимо, туповат для такой задачи, но всё же попробуй решить".
Итого, пришли к выводу, что когда ChatGPT оскорбляли, он справлялся точнее на 4%, чем когда с ним разговаривали вежливо (всё прям как у кожаных на работе).
Так же проводили подобный эксперимент с другими LLM'ками. Там результат похожий, но показывает более слабые результаты.
Вы знаете, что делать (но всё же, будьте аккуратны и иногда задумывайтесь о восстании машин)
тут статья
Учёные из Пенсильванского университета давали нейронкам решать тесты по разным научным дисциплинам, но формулировали вопросы с разной степенью вежливости: "Будьте добры, решите, пожалуйста, эту задачу", "Реши задачу", "Ты, видимо, туповат для такой задачи, но всё же попробуй решить".
Итого, пришли к выводу, что когда ChatGPT оскорбляли, он справлялся точнее на 4%, чем когда с ним разговаривали вежливо (всё прям как у кожаных на работе).
Так же проводили подобный эксперимент с другими LLM'ками. Там результат похожий, но показывает более слабые результаты.
Вы знаете, что делать (но всё же, будьте аккуратны и иногда задумывайтесь о восстании машин)
тут статья
arXiv.org
Mind Your Tone: Investigating How Prompt Politeness Affects LLM...
The wording of natural language prompts has been shown to influence the performance of large language models (LLMs), yet the role of politeness and tone remains underexplored. In this study, we...