Media is too big
VIEW IN TELEGRAM
Мы в такое время удивительное живем – в интернете ренессанс фотожаб, у языковых моделей признаки депрессии и каждый может почувствовать себя в роли тракторной гусеницы
Будущее прекрасно 🥲
_______
Источник | #denissexy
@F_S_C_P
-------
поддержи канал
-------
Будущее прекрасно 🥲
_______
Источник | #denissexy
@F_S_C_P
-------
поддержи канал
-------
Еще интересное исследование по LLM-подвезли:
В этот раз ученые решили проверить, что значит в понимании АИ "реальность" и каким языком они ее воспринимают – если коротко, похоже реальность они понимают намного лучше, чем мы ожидали:
Традиционно считалось, что LLM просто предсказывают следующее слово на основе статистических закономерностей в обучающих данных
Это же исследование показывает, что модель не просто предсказывает слова, а формирует внутреннее представление о том, как эти инструкции влияют на состояние виртуального мира
Чуть подробнее:
1. Ученые натренировали небольшую LLM используя простые лабиринтные головоломки для виртуального робота – это позволило им изучить "мышление" LLM в контролируемой среде
2. LLM самостоятельно создала внутреннее представление о симуляции, несмотря на то, что никогда не видела её напрямую (!), то есть модель развила способность интерпретировать инструкции и понимать их значение в контексте задачи. Это противоречит предыдущим представлениям о том, что LLM просто имитируют текст из обучающих данных (Илья, пососи):
– "Создание внутреннего представления о симуляции" означает, что модель сформировала некое абстрактное понимание правил и законов виртуального мира, в котором действует робот.
– "Развитие способности интерпретировать инструкции" - это следствие прошлого пункта. Модель не просто повторяет инструкции, а "понимает", как они изменяют состояние виртуального мира.
3. Чтобы проверить эту идею, модель поместили в "зазеркалье"с другими правилами симуляции мира и модель не смогла адаптироваться – что подтвердило, что модель "знает" как исполнять инструкции, а не просто их повторяет
4. Модель смогла начать "предсказывать" будущие состояния, что указывает на более глубокое понимание задач
5. В очередной раз ученые подчеркивают сходства между процессом обучения LLM и освоением языка детьми – сначала "лепет", затем освоение синтаксиса, и наконец, понимание смысла. Я иногда общаюсь с ML-инженерами родителями – многие часто про это говорят
6. Исследование ставит под сомнение наши представления о том, какая информация необходима для изучения лингвистического значения, что может привести к созданию более эффективных методов обучения ИИ
То есть если раньше считалось, что эти модели просто «умные попугаи» которые повторяют то, на чем обучены, то теперь есть доказательства того, что они могут формировать более глубокое понимание задач и концепций
Хотя результаты многообещающие, исследователи признают ограничения своего эксперимента и необходимость дальнейших исследований в более сложных условиях, с более большими моделями и тп.
Если кто-то хочет повторить эксперимент, вот код.
_______
Источник | #denissexy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
В этот раз ученые решили проверить, что значит в понимании АИ "реальность" и каким языком они ее воспринимают – если коротко, похоже реальность они понимают намного лучше, чем мы ожидали:
Традиционно считалось, что LLM просто предсказывают следующее слово на основе статистических закономерностей в обучающих данных
Это же исследование показывает, что модель не просто предсказывает слова, а формирует внутреннее представление о том, как эти инструкции влияют на состояние виртуального мира
Чуть подробнее:
1. Ученые натренировали небольшую LLM используя простые лабиринтные головоломки для виртуального робота – это позволило им изучить "мышление" LLM в контролируемой среде
2. LLM самостоятельно создала внутреннее представление о симуляции, несмотря на то, что никогда не видела её напрямую (!), то есть модель развила способность интерпретировать инструкции и понимать их значение в контексте задачи. Это противоречит предыдущим представлениям о том, что LLM просто имитируют текст из обучающих данных (Илья, пососи):
– "Создание внутреннего представления о симуляции" означает, что модель сформировала некое абстрактное понимание правил и законов виртуального мира, в котором действует робот.
– "Развитие способности интерпретировать инструкции" - это следствие прошлого пункта. Модель не просто повторяет инструкции, а "понимает", как они изменяют состояние виртуального мира.
3. Чтобы проверить эту идею, модель поместили в "зазеркалье"с другими правилами симуляции мира и модель не смогла адаптироваться – что подтвердило, что модель "знает" как исполнять инструкции, а не просто их повторяет
4. Модель смогла начать "предсказывать" будущие состояния, что указывает на более глубокое понимание задач
5. В очередной раз ученые подчеркивают сходства между процессом обучения LLM и освоением языка детьми – сначала "лепет", затем освоение синтаксиса, и наконец, понимание смысла. Я иногда общаюсь с ML-инженерами родителями – многие часто про это говорят
6. Исследование ставит под сомнение наши представления о том, какая информация необходима для изучения лингвистического значения, что может привести к созданию более эффективных методов обучения ИИ
То есть если раньше считалось, что эти модели просто «умные попугаи» которые повторяют то, на чем обучены, то теперь есть доказательства того, что они могут формировать более глубокое понимание задач и концепций
Хотя результаты многообещающие, исследователи признают ограничения своего эксперимента и необходимость дальнейших исследований в более сложных условиях, с более большими моделями и тп.
Если кто-то хочет повторить эксперимент, вот код.
_______
Источник | #denissexy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
GitHub
GitHub - charlesjin/emergent-semantics
Contribute to charlesjin/emergent-semantics development by creating an account on GitHub.
Еще интересное исследование по LLM-подвезли:
В этот раз ученые решили проверить, что значит в понимании АИ "реальность" и каким языком они ее воспринимают – если коротко, похоже реальность они понимают намного лучше, чем мы ожидали:
Традиционно считалось, что LLM просто предсказывают следующее слово на основе статистических закономерностей в обучающих данных
Это же исследование показывает, что модель не просто предсказывает слова, а формирует внутреннее представление о том, как эти инструкции влияют на состояние виртуального мира
Чуть подробнее:
1. Ученые натренировали небольшую LLM используя простые лабиринтные головоломки для виртуального робота – это позволило им изучить "мышление" LLM в контролируемой среде
2. LLM самостоятельно создала внутреннее представление о симуляции, несмотря на то, что никогда не видела её напрямую (!), то есть модель развила способность интерпретировать инструкции и понимать их значение в контексте задачи. Это противоречит предыдущим представлениям о том, что LLM просто имитируют текст из обучающих данных (Илья, пососи):
– "Создание внутреннего представления о симуляции" означает, что модель сформировала некое абстрактное понимание правил и законов виртуального мира, в котором действует робот.
– "Развитие способности интерпретировать инструкции" - это следствие прошлого пункта. Модель не просто повторяет инструкции, а "понимает", как они изменяют состояние виртуального мира.
3. Чтобы проверить эту идею, модель поместили в "зазеркалье"с другими правилами симуляции мира и модель не смогла адаптироваться – что подтвердило, что модель "знает" как исполнять инструкции, а не просто их повторяет
4. Модель смогла начать "предсказывать" будущие состояния, что указывает на более глубокое понимание задач
5. В очередной раз ученые подчеркивают сходства между процессом обучения LLM и освоением языка детьми – сначала "лепет", затем освоение синтаксиса, и наконец, понимание смысла. Я иногда общаюсь с ML-инженерами родителями – многие часто про это говорят
6. Исследование ставит под сомнение наши представления о том, какая информация необходима для изучения лингвистического значения, что может привести к созданию более эффективных методов обучения ИИ
То есть если раньше считалось, что эти модели просто «умные попугаи» которые повторяют то, на чем обучены, то теперь есть доказательства того, что они могут формировать более глубокое понимание задач и концепций
Хотя результаты многообещающие, исследователи признают ограничения своего эксперимента и необходимость дальнейших исследований в более сложных условиях, с более большими моделями и тп.
Если кто-то хочет повторить эксперимент, вот код.
_______
Источник | #denissexy
@F_S_C_P
Стань спонсором!
В этот раз ученые решили проверить, что значит в понимании АИ "реальность" и каким языком они ее воспринимают – если коротко, похоже реальность они понимают намного лучше, чем мы ожидали:
Традиционно считалось, что LLM просто предсказывают следующее слово на основе статистических закономерностей в обучающих данных
Это же исследование показывает, что модель не просто предсказывает слова, а формирует внутреннее представление о том, как эти инструкции влияют на состояние виртуального мира
Чуть подробнее:
1. Ученые натренировали небольшую LLM используя простые лабиринтные головоломки для виртуального робота – это позволило им изучить "мышление" LLM в контролируемой среде
2. LLM самостоятельно создала внутреннее представление о симуляции, несмотря на то, что никогда не видела её напрямую (!), то есть модель развила способность интерпретировать инструкции и понимать их значение в контексте задачи. Это противоречит предыдущим представлениям о том, что LLM просто имитируют текст из обучающих данных (Илья, пососи):
– "Создание внутреннего представления о симуляции" означает, что модель сформировала некое абстрактное понимание правил и законов виртуального мира, в котором действует робот.
– "Развитие способности интерпретировать инструкции" - это следствие прошлого пункта. Модель не просто повторяет инструкции, а "понимает", как они изменяют состояние виртуального мира.
3. Чтобы проверить эту идею, модель поместили в "зазеркалье"с другими правилами симуляции мира и модель не смогла адаптироваться – что подтвердило, что модель "знает" как исполнять инструкции, а не просто их повторяет
4. Модель смогла начать "предсказывать" будущие состояния, что указывает на более глубокое понимание задач
5. В очередной раз ученые подчеркивают сходства между процессом обучения LLM и освоением языка детьми – сначала "лепет", затем освоение синтаксиса, и наконец, понимание смысла. Я иногда общаюсь с ML-инженерами родителями – многие часто про это говорят
6. Исследование ставит под сомнение наши представления о том, какая информация необходима для изучения лингвистического значения, что может привести к созданию более эффективных методов обучения ИИ
То есть если раньше считалось, что эти модели просто «умные попугаи» которые повторяют то, на чем обучены, то теперь есть доказательства того, что они могут формировать более глубокое понимание задач и концепций
Хотя результаты многообещающие, исследователи признают ограничения своего эксперимента и необходимость дальнейших исследований в более сложных условиях, с более большими моделями и тп.
Если кто-то хочет повторить эксперимент, вот код.
_______
Источник | #denissexy
@F_S_C_P
Стань спонсором!
GitHub
GitHub - charlesjin/emergent-semantics
Contribute to charlesjin/emergent-semantics development by creating an account on GitHub.
https://t.me/denissexy/8679
В последней версии Claude приложения появилась поддержка «артефактов» – мини приложений которые собираются на лету под ваши задачи
Нужно вам собрать какой-то калькулятор который разобьет чек между друзьями, или быстрый UX прототип, или игру как я заказал – просто пишете что хотите и оно собирает
Это пример того куда все идет – AI Software On Demand, думаю через пару лет будет такой же обычной вещью как все эти генераторы картинок
Скачать:
iOS Android
_______
Источник | #denissexy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
В последней версии Claude приложения появилась поддержка «артефактов» – мини приложений которые собираются на лету под ваши задачи
Нужно вам собрать какой-то калькулятор который разобьет чек между друзьями, или быстрый UX прототип, или игру как я заказал – просто пишете что хотите и оно собирает
Это пример того куда все идет – AI Software On Demand, думаю через пару лет будет такой же обычной вещью как все эти генераторы картинок
Скачать:
iOS Android
_______
Источник | #denissexy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Telegram
Denis Sexy IT 🤖
В последней версии Claude приложения появилась поддержка «артефактов» – мини приложений которые собираются на лету под ваши задачи
Нужно вам собрать какой-то калькулятор который разобьет чек между друзьями, или быстрый UX прототип, или игру как я заказал…
Нужно вам собрать какой-то калькулятор который разобьет чек между друзьями, или быстрый UX прототип, или игру как я заказал…
…
роботы-стукачи
<вы находитесь здесь>
___
Источник | #denissexy
#хроникицифровизации
не #пятничное
@F_S_C_P
1 Blum = $0.019:
Попробуй Blum
роботы-стукачи
<вы находитесь здесь>
___
Источник | #denissexy
#хроникицифровизации
не #пятничное
@F_S_C_P
1 Blum = $0.019:
Попробуй Blum
This media is not supported in your browser
VIEW IN TELEGRAM
1X показали своего нового робота NEO Beta, и он так хорош что люди думают, что это человек в костюме
Как, раньше, некоторые думали что txt2img или ChatGPT полагается на закрытые кабинеты с большим количеством персонала, хороший знак в общем – даешь роботы на улицы до 2030го
Детали про робота:
www.1x.tech
Рост 1.65 метра
Вес 30 килограммов
Скорость ходьбы 4 километра в час
Скорость бега 12 километров в час
Грузоподъемность 20 килограммов
Время бега 2-4 часа(хаха, кожаный не убежит)
_______
Источник | #denissexy
@F_S_C_P
1 Blum = $0.019:
Попробуй Blum
Как, раньше, некоторые думали что txt2img или ChatGPT полагается на закрытые кабинеты с большим количеством персонала, хороший знак в общем – даешь роботы на улицы до 2030го
Детали про робота:
www.1x.tech
Рост 1.65 метра
Вес 30 килограммов
Скорость ходьбы 4 километра в час
Скорость бега 12 километров в час
Грузоподъемность 20 килограммов
Время бега 2-4 часа
_______
Источник | #denissexy
@F_S_C_P
1 Blum = $0.019:
Попробуй Blum
https://t.me/denissexy/8700
Наткнулся на интересный пейпер — ресечеры протестировали насколько часто люди могут воспринимать GPT4 за реального человека:
— В 54% раз, люди восприняли GPT4 как человека
— В таком же тесте, где люди общались с людьми, кожаные мешки угадали себе подобных в 67% раз
Но самое интересное это промпт который использовали ученые — там есть такие части:
— Ты довольно непринужден и у тебя не очень хорошая орфография: ты часто портишь слова, потому что печатаешь слишком быстро. Ты очень краток и лаконичен.
— Ты не слишком хорошо разбираешься в вещах и не боишься этого признать. Ты плохо разбираешься в математике и не знаешь ничего о языках, кроме тех, на которых говоришь. Иногда ругаешься.
То есть чтобы сойти за живого человека, достаточно быть не очень приятным и образованным ☕️
AGI на заметку
_______
Источник | #denissexy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Наткнулся на интересный пейпер — ресечеры протестировали насколько часто люди могут воспринимать GPT4 за реального человека:
— В 54% раз, люди восприняли GPT4 как человека
— В таком же тесте, где люди общались с людьми, кожаные мешки угадали себе подобных в 67% раз
Но самое интересное это промпт который использовали ученые — там есть такие части:
— Ты довольно непринужден и у тебя не очень хорошая орфография: ты часто портишь слова, потому что печатаешь слишком быстро. Ты очень краток и лаконичен.
— Ты не слишком хорошо разбираешься в вещах и не боишься этого признать. Ты плохо разбираешься в математике и не знаешь ничего о языках, кроме тех, на которых говоришь. Иногда ругаешься.
То есть чтобы сойти за живого человека, достаточно быть не очень приятным и образованным ☕️
AGI на заметку
_______
Источник | #denissexy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Telegram
Denis Sexy IT 🤖
Наткнулся на интересный пейпер — ресечеры протестировали насколько часто люди могут воспринимать GPT4 за реального человека:
— В 54% раз, люди восприняли GPT4 как человека
— В таком же тесте, где люди общались с людьми, кожаные мешки угадали себе подобных…
— В 54% раз, люди восприняли GPT4 как человека
— В таком же тесте, где люди общались с людьми, кожаные мешки угадали себе подобных…
Выкатили на neural.love новый файнтюн по фотореализму – кажется мы тоже пересекли порог реалистичных генераций с двух слов на входе
Играться можно тут:
neural.love
_______
Источник | #denissexy
@F_S_C_P
Стань спонсором!
Играться можно тут:
neural.love
_______
Источник | #denissexy
@F_S_C_P
Стань спонсором!
This media is not supported in your browser
VIEW IN TELEGRAM
Классный пример txt2video эмоций – кожаных актеров уже перегнали
Промпт:
Сделано в этой нейронке:
hailuoai.com
_______
Источник | #denissexy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Промпт:
Крупный план женщины через плечо, сначала она смеется, потом грустит, потом начинает плакать, потом закрывает лицо руками
Сделано в этой нейронке:
hailuoai.com
_______
Источник | #denissexy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot