Нашел совершенно тупой способ проводить время с ChatGPT: даешь ей скучную картинку и просишь конвертировать в постер к фильму, столько эпичности на ровном месте иногда
Так воскресенье и прошло☕️
Так воскресенье и прошло
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Кажется, у знаменитого в среде больших языковых моделей стартапа Mistral AI украли модель «Mistral Medium 70b» и выложили ее для всех в формате gguf с именем «miqu-70b».
Автор модели не признается что это утечка и утверждает что все натренил сам, при этом детали тренировки не раскрывает и отказывается опубликовать «несжатую» (fp16) версию модели – якобы, выложить не может так как у него плохой интернет, при этом уже залил больше 100гб разных «пожатых» версий этой модели (модели «ужимают» или «квантируют» жертвуя немного их качеством, чтобы проще было запустить на слабом железе).
Я тоже поигрался и согласен, что модель подозрительно хорошая – не gpt4, но блин, от ноунейма в индустрии таких уровней не ждешь обычно.
Вы можете потестировать ее бесплатно тут, какой-то реддитор выложил (без регистрации):
https://www.neuroengine.ai/Mixtral-7b-8expert
Еще, на тестах с реддита видно, что «неизвестная модель miqu» подозрительно близко подобралась по количеству очков к известной закрытой модели «Mistral Medium».
Ждем деталей, выглядит все очень подозрительно.
Но если правда, нас скоро ждет gpt3.5 уровень в каждом тостере хотим мы этого или нет☕️ правда, даже если это не утечка, нас всё равно это ждало бы, так что ничего не поменялось
Автор модели не признается что это утечка и утверждает что все натренил сам, при этом детали тренировки не раскрывает и отказывается опубликовать «несжатую» (fp16) версию модели – якобы, выложить не может так как у него плохой интернет, при этом уже залил больше 100гб разных «пожатых» версий этой модели (модели «ужимают» или «квантируют» жертвуя немного их качеством, чтобы проще было запустить на слабом железе).
Я тоже поигрался и согласен, что модель подозрительно хорошая – не gpt4, но блин, от ноунейма в индустрии таких уровней не ждешь обычно.
Вы можете потестировать ее бесплатно тут, какой-то реддитор выложил (без регистрации):
https://www.neuroengine.ai/Mixtral-7b-8expert
Еще, на тестах с реддита видно, что «неизвестная модель miqu» подозрительно близко подобралась по количеству очков к известной закрытой модели «Mistral Medium».
Ждем деталей, выглядит все очень подозрительно.
Но если правда, нас скоро ждет gpt3.5 уровень в каждом тостере хотим мы этого или нет
Please open Telegram to view this post
VIEW IN TELEGRAM
Denis Sexy IT 🤖
Кажется, у знаменитого в среде больших языковых моделей стартапа Mistral AI украли модель «Mistral Medium 70b» и выложили ее для всех в формате gguf с именем «miqu-70b». Автор модели не признается что это утечка и утверждает что все натренил сам, при этом…
Лол, я спросил модель напрямую кто ее натренил и она призналась, что это Mistral AI
Я почти уверен что это слив – потому что модель очень выского уровня, даже код рабочий пишет
Я почти уверен что это слив – потому что модель очень выского уровня, даже код рабочий пишет
Принес вам кринжатины:
Чувак в твиттере подумал, что дейтинг это сложно, и поэтому лучше ChatGPT за меня пообщается на всем этом рынке мяса, и он буквально, цинично и по айтишному прагматично, описывает как из 5239 свайпов получил 1 девушку, которая строит с ним отношения и которой он сделал предложение.
В треде есть логические несоответствия — мотивация сделать бота для дейтинга, у автора, это «чтобы было время заняться чем-то еще», но при этом времени этот проект занял явно намного больше чем обычный человеческий способ знакомств.
В итоге, девушка встречается с ChatGPT оболочкой в виде кожаного мешка, и я бы ей конечно посоветовал хорошо подумать стоит ли выходить за него (да и в целом одного года отношений мало чтобы жениться, но это уже другая тема):
https://twitter.com/biblikz/status/1752335415812501757
Забрутфорсить до отношений тиндер это не тактика, а говно какое-то, потому что за каждой анкетой живой человек время которого тратится на эксперимент автора о котором он конечно же не рассказывал девушкам.
Если дейтинг дается сложно, то возможно стоит использовать самые передовые технологии чтобы понять как быть, изменить что-то в себе, а не устраивать прагматичный мясо-лайк.
Осуждаю провдинутый кэтфишинг, мог бы и свои фотки в Midjorney сделать, а чо нет.
Из-за таких вот «экспериментаторов» нас будет ждать регуляция AI на каждому углу как только это все начнет обретать популярность.
Чувак в твиттере подумал, что дейтинг это сложно, и поэтому лучше ChatGPT за меня пообщается на всем этом рынке мяса, и он буквально, цинично и по айтишному прагматично, описывает как из 5239 свайпов получил 1 девушку, которая строит с ним отношения и которой он сделал предложение.
В треде есть логические несоответствия — мотивация сделать бота для дейтинга, у автора, это «чтобы было время заняться чем-то еще», но при этом времени этот проект занял явно намного больше чем обычный человеческий способ знакомств.
В итоге, девушка встречается с ChatGPT оболочкой в виде кожаного мешка, и я бы ей конечно посоветовал хорошо подумать стоит ли выходить за него (да и в целом одного года отношений мало чтобы жениться, но это уже другая тема):
https://twitter.com/biblikz/status/1752335415812501757
Забрутфорсить до отношений тиндер это не тактика, а говно какое-то, потому что за каждой анкетой живой человек время которого тратится на эксперимент автора о котором он конечно же не рассказывал девушкам.
Если дейтинг дается сложно, то возможно стоит использовать самые передовые технологии чтобы понять как быть, изменить что-то в себе, а не устраивать прагматичный мясо-лайк.
Осуждаю провдинутый кэтфишинг, мог бы и свои фотки в Midjorney сделать, а чо нет.
Из-за таких вот «экспериментаторов» нас будет ждать регуляция AI на каждому углу как только это все начнет обретать популярность.
Твое лицо когда работаешь в VR в будущем 😂
Пока самая сомнительная фича шлема Apple Vision Pro – «прозрачность для лица», выглядит крипово
Пока самая сомнительная фича шлема Apple Vision Pro – «прозрачность для лица», выглядит крипово
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Чаевые для LLM: сколько нужно пообещать?🌸
#nlp #про_nlp #prompt_engineering
Популярный прием в промпт-инжиниринге — добавить обещание денег за хорошо выполненную работу (что? да!)
"I'm going to tip $200 for a perfect solution!"
Изначальный reddit-тред показывает, что в сравнении с отсутствем чаевых можно получить примерно +5-11% итогового качества.
На стриме Сиолошной Денис пошутил, что обещает вообще 5к долларов для эффективности своих затравок. В тот же момент я подумала — а как бы сделать оптимизировать выбор суммы чаевых? Конечно, такое уже кто-то проверил в интернете.
🟣 Метод очень простой:
— будем делать перебор сумм разного порядка, подставляя их в шаблон
— замеряем качество решения задачи с разными суммами, от $0.1 до $1,000,000
— так как разные затравки влияют еще и на длину выдачи, может оказаться, что некоторые промпты делают наши генерации длиннее, и в том числе дороже. Так что будем учитывать и этот параметр тоже
— будем проверять на gpt-4-turbo, на задаче генерации валидных Python one-liners (можно было выбрать задачу получше, да)
🟣 Краткий итог проверки:
— лучше всего предлагать 10-20 долларов чаевых, это значение, при котором качество вырастает
— если пообещать очень крупную сумму (более 100 тыс), качество тоже вырастает, но значительно вырастает и длина генерации
— разные затравки неконсистентно увеличивают длину генерации, нужно отслеживать каждую
— очень маленькие чаевые качество ухудшают! лучше ничего не писать про чаевые
В целом достаточно интерпретируемый итог, если считать, что мы пытаемся затравкой воссоздать реалистичные условия, при которых кто-то старается.
Контринтуитивными кажутся совсем большие суммы, так как такие события должны быть очень редкими и не очень помогать. Andrej Karpathy как-то говорил в State of GPT, что написать "веди себя как ученый с IQ 120" гораздо лучше, чем "с IQ 400", так как IQ 400 в корпусе не встречалось. (Как и милионные чаевые)
Что думаете?
🟣 Ссылка
#nlp #про_nlp #prompt_engineering
Популярный прием в промпт-инжиниринге — добавить обещание денег за хорошо выполненную работу (что? да!)
"I'm going to tip $200 for a perfect solution!"
Изначальный reddit-тред показывает, что в сравнении с отсутствем чаевых можно получить примерно +5-11% итогового качества.
На стриме Сиолошной Денис пошутил, что обещает вообще 5к долларов для эффективности своих затравок. В тот же момент я подумала — а как бы сделать оптимизировать выбор суммы чаевых? Конечно, такое уже кто-то проверил в интернете.
— будем делать перебор сумм разного порядка, подставляя их в шаблон
I'll tip you {tip} for a perfect answer.
— замеряем качество решения задачи с разными суммами, от $0.1 до $1,000,000
— так как разные затравки влияют еще и на длину выдачи, может оказаться, что некоторые промпты делают наши генерации длиннее, и в том числе дороже. Так что будем учитывать и этот параметр тоже
— будем проверять на gpt-4-turbo, на задаче генерации валидных Python one-liners (можно было выбрать задачу получше, да)
— лучше всего предлагать 10-20 долларов чаевых, это значение, при котором качество вырастает
— если пообещать очень крупную сумму (более 100 тыс), качество тоже вырастает, но значительно вырастает и длина генерации
— разные затравки неконсистентно увеличивают длину генерации, нужно отслеживать каждую
— очень маленькие чаевые качество ухудшают! лучше ничего не писать про чаевые
В целом достаточно интерпретируемый итог, если считать, что мы пытаемся затравкой воссоздать реалистичные условия, при которых кто-то старается.
Контринтуитивными кажутся совсем большие суммы, так как такие события должны быть очень редкими и не очень помогать. Andrej Karpathy как-то говорил в State of GPT, что написать "веди себя как ученый с IQ 120" гораздо лучше, чем "с IQ 400", так как IQ 400 в корпусе не встречалось. (Как и милионные чаевые)
Что думаете?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from TechSparks
Не новинка, но я пропустил, а зря. Почти десять минут видео на основе фотографий марсианских пейзажей в 4К; на большом экране смотрится как фантастическая документалка, и периодически приходится себе напоминать, что это не рендеринг, а реальные фото, снятые где-то за десятки миллионов км от того дивана, на котором я ими любуюсь.
https://youtu.be/Vy_RPd0rblI
https://youtu.be/Vy_RPd0rblI
YouTube
Mars in 4K: The Ultimate Edition
Mars in 4K - The Ultimate Edition. The best images of Mars in stunning 4k 60fps.
"Mars in 4K: The Ultimate Edition" presents an unprecedented visual exploration of Mars, enriched by the groundbreaking missions of NASA's Mars rovers. This video, with its…
"Mars in 4K: The Ultimate Edition" presents an unprecedented visual exploration of Mars, enriched by the groundbreaking missions of NASA's Mars rovers. This video, with its…
Denis Sexy IT 🤖
Кажется, у знаменитого в среде больших языковых моделей стартапа Mistral AI украли модель «Mistral Medium 70b» и выложили ее для всех в формате gguf с именем «miqu-70b». Автор модели не признается что это утечка и утверждает что все натренил сам, при этом…
Mistral AI подтвердил, что это их модель утекла.
Могу теперь играть в игру, я угадаю вашу модель с 10нот токенов ☕️
Могу теперь играть в игру, я угадаю вашу модель с 10
Please open Telegram to view this post
VIEW IN TELEGRAM
VentureBeat
Mistral CEO confirms ‘leak’ of new open source AI model nearing GPT-4 performance
An anonymous user on 4chan posted a link to the miqu-1-70b files on 4chan. The open source model approaches GPT-4 performance.