Выпустил вторую статью на МЕЛ про ChatGPT в образовании. На этот раз с четким фокусом на пользу для учителей. Польза разнообразная, на всех этапах, от разработки учебных программ до анализа работ учеников. Разве что взаимодействие с учениками в классе остается нетронутым.
К слову, на выходных протестировал GPT-4 Vision на рисунках дочери. Просил проанализировать рисунок, оценить достоинства и порекомендовать, в чем ей развиваться. На английском результат впечатляющий. Ничто не мешает уже сейчас отправлять ему фотографии работ, сделанных в тетради, чтобы ChatGPT выполнял автоматическую проверку задания и отправлял вам отчет.
В статье написано про это и про другое. Старался обобщить информацию скорее о наиболее популярных применениях. Недавно Microsoft опубликовал библиотеку промптов для образования, они тоже касались самых частых юзкейсов. Что это значит "самые частые"? За минувший год прояснилось.
#chatgpt #edu #text #review
К слову, на выходных протестировал GPT-4 Vision на рисунках дочери. Просил проанализировать рисунок, оценить достоинства и порекомендовать, в чем ей развиваться. На английском результат впечатляющий. Ничто не мешает уже сейчас отправлять ему фотографии работ, сделанных в тетради, чтобы ChatGPT выполнял автоматическую проверку задания и отправлял вам отчет.
В статье написано про это и про другое. Старался обобщить информацию скорее о наиболее популярных применениях. Недавно Microsoft опубликовал библиотеку промптов для образования, они тоже касались самых частых юзкейсов. Что это значит "самые частые"? За минувший год прояснилось.
#chatgpt #edu #text #review
Мел
ChatGPT для учителя. 5 юзкейсов и 2 сюрприза
ChatGPT — незаменимый инструмент в работе учителей, нацеленных на внедрение инноваций. Всмотримся в основные и необычные применения
За время моего погружения AI-образование появилось много новостей. Удивительно, но стабильным ньюсмейкером становится Text-to-3D, как-нибудь сделаю обзор. Генерация 3D — это вход в metaverse и смена представления о виртуальной реальности с серфинга по экрану на сновидение с полным погружением. Мы сейчас совсем не там, многие даже никогда не надевали шлем виртуальной реальности.
Но сегодня хочу рассказать про более прозаичную новость. Китайцы создали языковую нейросеть с самым большим контекстным окном (350 тыс. иероглифов), и туда поместилась"Анна Каренина" , а "Война и мир" еще нет. На днях общался с приятелем о пользе LLM и архитектуре решений, которые люди начинают строить на базе LLM. Дошел до интересной мысли, что размер контекстного окна в ChatGPT является комфортным с точки зрения возможности контроля входных и выходных данных (грубо говоря, пара страниц Word). И вход, и выход человек может прочесть, соответственно самостоятельно вынести суждение о надежности результата. А теперь представьте, что вы не читали "Анну Каренину", а языковая модель вам выдает саммари на 1 страницу. Большинство людей посчитает это саммари бесполезным потому, что не доверяет ИИ. Эта задачка четко выводит человека из зоны комфорта и заставляет довериться тому, в чем он не уверен. Тут как раз и возникает профессиональное требование к архитектуре решения, которое будет надежным. И вообще в этой ситуации возникают профессионалы, которые берут на себя ответственность.
Я всё более склоняюсь к тому, что именно сжатие информации при помощи GenAI обладает наибольшим экономическим потенциалом, а вовсе не генерация контента с нуля.
Источник
#text #news #3d
Но сегодня хочу рассказать про более прозаичную новость. Китайцы создали языковую нейросеть с самым большим контекстным окном (350 тыс. иероглифов), и туда поместилась
Я всё более склоняюсь к тому, что именно сжатие информации при помощи GenAI обладает наибольшим экономическим потенциалом, а вовсе не генерация контента с нуля.
Источник
#text #news #3d
Telegram
Малоизвестное интересное
Китайский генеративный ИИ вырывается вперед.
Он уже способен обобщать романы, размером с «Анну Каренину» (хотя пока не дотягивает до «Войны и мира»)
Споры о понимании больших сложных текстов моделями генеративного ИИ легко разрешаются на практике. Достаточно…
Он уже способен обобщать романы, размером с «Анну Каренину» (хотя пока не дотягивает до «Войны и мира»)
Споры о понимании больших сложных текстов моделями генеративного ИИ легко разрешаются на практике. Достаточно…
Tech-сообщество в восторге от вчерашних релизов OpenAI. Лидер есть лидер. Я бы даже сказал, что революция GenAI, начавшаяся год назад, сегодня закончилась и перешла в иную стадию. Прежде всего это появление GPT-store — маркетплейса кастомных ИИ-ассистентов, которые умеют не только болтать (как в Character.ai и Poe), а видеть / говорить / искать / действовать (за счет GPT-Vision, Code Interpreter и DALL-E 3). Это прототип альтернативного рынка труда. Предприимчивые люди будут создавать ИИ-ассистентов и объединять их в организации. Создать ИИ-ассистента — значит подобрать эталонный текст и запромптить логику поведения — всё программирование идет на естественном языке, впервые в истории.
Уникальный момент.
Если у OpenAI всё получится, то вокруг него образуется редкий пучок синергии. В AI все пробуют community-building, но по-настоящему получилось только у Stable Diffusion с платформой CivitAI как центральной точкой. Но для Stable Diffusion нужны классические программисты (создавать extensions) и энтузиасты (тренировать LoRA / Checkpoint), а для GPT-Store порог входа ниже. Нужно знать один из топ-10 мировых языков, уникальный датасет и иметь проектное / проблемное мышление, чтобы догадаться до оптимального решения кастомной задачи.
#release #text #chagpt #opinion
Уникальный момент.
Если у OpenAI всё получится, то вокруг него образуется редкий пучок синергии. В AI все пробуют community-building, но по-настоящему получилось только у Stable Diffusion с платформой CivitAI как центральной точкой. Но для Stable Diffusion нужны классические программисты (создавать extensions) и энтузиасты (тренировать LoRA / Checkpoint), а для GPT-Store порог входа ниже. Нужно знать один из топ-10 мировых языков, уникальный датасет и иметь проектное / проблемное мышление, чтобы догадаться до оптимального решения кастомной задачи.
#release #text #chagpt #opinion
На неделе зарелизили новую open-source языковую нейросеть. Это происходит почти каждую неделю, и обычно я не пишу об этом. В этот раз случилось нечто особенное.
Учёные из Беркли до-обучили языковую модель на синтетическом датасете, сгенерирован в GPT-4 - теперь такое делают повсеместно. Но они пошли на шаг дальше и попросили GPT-4 также оценить пары ответов своей модели (выбрать лучший ответ из двух), после чего ещё до-обучили ее.
На выходе получилась лёгкая (7В) open-source модель Starling, которая по некоторым бенчмаркам обыгрывает gpt-3.5 (20B параметров). По идее настолько лёгкую модель можно установить на локальном компьютере со скромной видеокартой и иметь бесплатный ChatGPT без VPN и блэкджека.
И речь даже не про конкретную модель, а про подход, что платная GPT-4 порождает бесконечное множество бесплатных и лёгких GPT-3.5. GPT-5 соответственно сделает то же самое с GPT-4.
#text #open_source #llm
Учёные из Беркли до-обучили языковую модель на синтетическом датасете, сгенерирован в GPT-4 - теперь такое делают повсеместно. Но они пошли на шаг дальше и попросили GPT-4 также оценить пары ответов своей модели (выбрать лучший ответ из двух), после чего ещё до-обучили ее.
На выходе получилась лёгкая (7В) open-source модель Starling, которая по некоторым бенчмаркам обыгрывает gpt-3.5 (20B параметров). По идее настолько лёгкую модель можно установить на локальном компьютере со скромной видеокартой и иметь бесплатный ChatGPT без VPN и блэкджека.
И речь даже не про конкретную модель, а про подход, что платная GPT-4 порождает бесконечное множество бесплатных и лёгких GPT-3.5. GPT-5 соответственно сделает то же самое с GPT-4.
#text #open_source #llm
Подписываюсь под каждым словом. В нескольких проектах, которые реализую, у GPT возникает пробел именно в отсутствии инициативы. Он работает исключительно по вашему триггеру (триггером является любое ваше сообщение), в этом смысле его поведение импульсивно и рефлекторно. Хотя каждому бы иметь такие рефлексы 😆
#text #gpt #opinion
#text #gpt #opinion
Среди LLM новый царь горы — Gemini от Google. По ключевой метрике MMLU эта языковая нейросеть обгоняет среднего человека. Сегодня и в ближайшие дни будет много-много-много слов о Gemini в СМИ.
#text #gemini #benchmark
#text #gemini #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
Стабильные юзкейсы
После праздников будет год как случился релиз GPT-4, который до сих пор остается лидером в восприятии людей (хотя Gemini формально побил его по ключевым бенчмаркам). В прошлом марте было много других громких релизов, и сейчас блогеры тоже в предвкушении. Пока ничего такого не произошло, интересно взглянуть на юзкейсы, которые за год докрутили до стабильного использования ⚓️
Есть один с любопытнейшей судьбой. Этогенерация SEO-контента .
Весь год десятки людей озвучивали эту идею, потому что очень и очень многие вовлечены в производство текстов. И напрашивается само собой. После месячного тестирования я скорее скептически относился к этой идее, и кажется новички, озвучивавшие идею написания статей, тоже быстро разочаровывались 😕. Все серьезные русскоязычные игроки сконцентрировались на ИИ-помощниках (copilot) для написания текстов. Прикрутили ключевые фичи: переписать, сократить, расширить, заменить на синоним и т.д.
Всё так, но недавно в англоязычном подкасте услышал мысль, что AGI в задаче блогинга уже достигнут, то есть ИИ способен справляться с задачей не хуже профессионала. Автор мысли пояснял, что мы пропустили этот момент из-за размытости формулировки AGI. Это меня удивило 😮. Ощущение из России, что до этого далеко. Мы бы сразу увидели, как ИИ-тексты заполонили бы интернет. Этого нет🚫
При более внимательном изучении вопроса оказалось, что да, англоязычный Youtube полон рассказов про генерацию 623 статей за 6 минут ⏳. Публикуются статьи не сразу, а например, раз в час. И да — это работает на SEO-продвижение в определенных пределах 📈. Одна большая статья с нуля (на 3000 слов с 4-5 хорошими картинками) стоит около 1$, и некоторые реализуют сразу тематические веб-сайты с сотнями страниц за 200$.
Естественная реакция на это, что текст в интернете скоро просто перестанут читать 🤮. Эта точная реакция приводит, на самом деле, к двум противоположным выводам:
1. Нет, не перестанут. Далеко не обо всем уже создан текст в интернете, и грамотные веб-мастера создают именно нишевые тематические веб-сайты, которым всё еще есть место / спрос. А ведь есть области сознательной цензуры 🤐
2. Да, перестанут. Многие американские маркетологи сознательно уходят от текста в сторону мультимедиа, особенно на ютуб, где человеки легко выигрывают конкуренцию у ИИ 🏆
Накидайте в комментариях другие юзкейсы, которые плотно вошли в жизнь. Поищу среди них неочевидные факты и последствия 🕵️♂️
#usecase #text #seo
После праздников будет год как случился релиз GPT-4, который до сих пор остается лидером в восприятии людей (хотя Gemini формально побил его по ключевым бенчмаркам). В прошлом марте было много других громких релизов, и сейчас блогеры тоже в предвкушении. Пока ничего такого не произошло, интересно взглянуть на юзкейсы, которые за год докрутили до стабильного использования ⚓️
Есть один с любопытнейшей судьбой. Это
Весь год десятки людей озвучивали эту идею, потому что очень и очень многие вовлечены в производство текстов. И напрашивается само собой. После месячного тестирования я скорее скептически относился к этой идее, и кажется новички, озвучивавшие идею написания статей, тоже быстро разочаровывались 😕. Все серьезные русскоязычные игроки сконцентрировались на ИИ-помощниках (copilot) для написания текстов. Прикрутили ключевые фичи: переписать, сократить, расширить, заменить на синоним и т.д.
Всё так, но недавно в англоязычном подкасте услышал мысль, что AGI в задаче блогинга уже достигнут, то есть ИИ способен справляться с задачей не хуже профессионала. Автор мысли пояснял, что мы пропустили этот момент из-за размытости формулировки AGI. Это меня удивило 😮. Ощущение из России, что до этого далеко. Мы бы сразу увидели, как ИИ-тексты заполонили бы интернет. Этого нет
При более внимательном изучении вопроса оказалось, что да, англоязычный Youtube полон рассказов про генерацию 623 статей за 6 минут ⏳. Публикуются статьи не сразу, а например, раз в час. И да — это работает на SEO-продвижение в определенных пределах 📈. Одна большая статья с нуля (на 3000 слов с 4-5 хорошими картинками) стоит около 1$, и некоторые реализуют сразу тематические веб-сайты с сотнями страниц за 200$.
Естественная реакция на это, что текст в интернете скоро просто перестанут читать 🤮. Эта точная реакция приводит, на самом деле, к двум противоположным выводам:
1. Нет, не перестанут. Далеко не обо всем уже создан текст в интернете, и грамотные веб-мастера создают именно нишевые тематические веб-сайты, которым всё еще есть место / спрос. А ведь есть области сознательной цензуры 🤐
2. Да, перестанут. Многие американские маркетологи сознательно уходят от текста в сторону мультимедиа, особенно на ютуб, где человеки легко выигрывают конкуренцию у ИИ 🏆
Накидайте в комментариях другие юзкейсы, которые плотно вошли в жизнь. Поищу среди них неочевидные факты и последствия 🕵️♂️
#usecase #text #seo
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#ОбзорГены
Что не могло пройти мимо радаров на минувшей неделе, а также неожиданно нашло отклик? Возникла потребность еженедельно бросать якорь в области GenAI — оставлять на память ключевые события: релизы, новости, материалы и темы.
{ Свежак }
🔠 Adobe анонсировал ControlNet для Firefly под названием Structure reference. Можно сгенерировать изображение на основе структуры (depth и др.) input-изображения. Давно есть в Stable Diffusion, однако нет ни у DALL-E, ни у Midjourney.
🔠 Hume.ai выпустили голосового чатбота со способностью распознавать эмоции. Самобытная компания, названная по имени великого шотландского философа-эмпириста, обучает именно эмоциональные модели в разных модальностях (текст / изображение / речь / видео). Давно слежу за ними, использую их технологию в одном проекте.
{ Пульс }
⚡️ Claude 3 Opus опередил GPT-4 (последней версии) на Chatbot Arena Leaderboard, где пользователи вслепую голосуют за лучший ответ одной из двух моделей. А еще бесплатный Claude "на голову" лучше бесплатного ChatGPT, правда с более жесткими ограничениями на пользование.
⚡️ Модель YandexGPT 3 Pro можно дообучить под свои нужды в сервисе DataSphere. Яндекс стабильно отстает примерно на 1 год от OpenAI, зато они остаются лидерами для российских разработчиков, которые по тем или иным причинам не могут использовать зарубежные модели.
{ Текстуры }
✅ Знаменитый Andrew Ng рассказал об AI Agentic workflows — по его мнению, результатов GPT-5 в zero-shot версии можно добиться уже сейчас за счет правильного Agentic workflow (итеративная генерация + добавление внешних инструментов). Авто-планирование шагов и мульти-агентные фреймворки, по его мнению, пока недостаточно надежны.
✅ Ресерч по AI-детекторам — отличный разбор того, можно ли достоверно определить является ли текст ИИ-сгенерированным? Короткий ответ —нет .
✅ ChatGPT справляется с задачами на программирование с leetcode — пользовательский разбор.
{ Перекресток мнений }
❓ GPTs c кастомными функциями. Есть мнение, что GPT-store еще не успев полноценно заработать, уже превратился в помойку с тысячами не отличимых друг от друга GPT-ассистентами. Я соглашусь с этим мнением в том, что пока затраты на поиск и тестирование сторонних GPTs превышает выгоду. Однако всё меняет одна черта — наличие внешних (кастомных) функций, нереализованных внутри ChatGPT. В качестве примера Photo Realistic GPT, который под капотом использует Stable Diffusion вместо DALL-E.
#image #hume #text #claude #llm #finetuning #gpts #aiagent #coding
Что не могло пройти мимо радаров на минувшей неделе, а также неожиданно нашло отклик? Возникла потребность еженедельно бросать якорь в области GenAI — оставлять на память ключевые события: релизы, новости, материалы и темы.
{ Свежак }
{ Пульс }
{ Текстуры }
✅ Знаменитый Andrew Ng рассказал об AI Agentic workflows — по его мнению, результатов GPT-5 в zero-shot версии можно добиться уже сейчас за счет правильного Agentic workflow (итеративная генерация + добавление внешних инструментов). Авто-планирование шагов и мульти-агентные фреймворки, по его мнению, пока недостаточно надежны.
✅ Ресерч по AI-детекторам — отличный разбор того, можно ли достоверно определить является ли текст ИИ-сгенерированным? Короткий ответ —
✅ ChatGPT справляется с задачами на программирование с leetcode — пользовательский разбор.
{ Перекресток мнений }
#image #hume #text #claude #llm #finetuning #gpts #aiagent #coding
Please open Telegram to view this post
VIEW IN TELEGRAM
#ОбзорГены №3
{ Пульс }
⚡️ GPT-4 вернул лидерство среди LLM и стал заметно лучше в математике / рассуждениях.
⚡️ ChatGPT-момент в генерации песен. Кроме того, новичок Udio обошел Suno.
⚡️ Общение с цифровым аватаром — создали первую open-source сборку, где можно пообщаться с ИИ, как по зуму.
⚡️ ИИ видит сквозь стены благодаря Wi-Fi — анализ Wi-Fi волн позволяет ИИ фиксировать присутствие людей.
{ Свежак }
🔠 Adobe добавит AI в видеоредактор Premiere — причем как свои нейросети, так и сторонние (Sora).
🔠 YandexGPT 3 Pro появилась в голосовом помощнике «Алиса».
🔠 Amazon включил в состав совета директоров Эндрю Ына (Andrew Ng) — одного из наиболее уважаемых экспертов в AI-индустрии.
{ Текстуры }
✅ AI Index Report 2024 — ежегодный отчет от Стенфорда про тренды в AI.
✅ Системный промпт Claude — пример лаконичного промптинга.
✅ Карта ИИ-стартапов 2024 года — самая полная ИИ-карта.
✅ 43% студентов используют в учебе ИИ — исследование от НИУ-ВШЭ с подтверждением мысли о повальном использовании ChatGPT среди студентов.
✅ VoiceCraft: Zero-Shot редактор речи — прототип аудиоредактора, где речь можно изменять правкой текста.
{ Находки }
😯 Noctie — Шахматный ИИ-тренер.
😯 Real-time 3D generation — связка Dreams, Krea and 3daistudio для создания трехмерного персонажа.
😯 gpt-llm-trainer — упрощает процесс до-обучения ИИ-моделей под конкретную задачу.
{ Перекресток мнений }
❓ AI-FOMO. Никто не успевает за событиями в AI-мире. Это нормально. Успевать — кажется, вообще неважно, потому что отношения с ИИ надолго сохранятся, хотя будут и трансформироваться. Сейчас мы используем самые сильные нейросети как исполнителя, а позже (когда они станут умнее нас) будем учиться у самых сильных нейросетей как студент / подмастерье. Опоздать здесь нельзя.
#llm #text #music #speech #video #research #games #fomo #edu #map #promptgramming
{ Пульс }
{ Свежак }
{ Текстуры }
✅ AI Index Report 2024 — ежегодный отчет от Стенфорда про тренды в AI.
✅ Системный промпт Claude — пример лаконичного промптинга.
✅ Карта ИИ-стартапов 2024 года — самая полная ИИ-карта.
✅ 43% студентов используют в учебе ИИ — исследование от НИУ-ВШЭ с подтверждением мысли о повальном использовании ChatGPT среди студентов.
✅ VoiceCraft: Zero-Shot редактор речи — прототип аудиоредактора, где речь можно изменять правкой текста.
{ Находки }
😯 Noctie — Шахматный ИИ-тренер.
😯 Real-time 3D generation — связка Dreams, Krea and 3daistudio для создания трехмерного персонажа.
😯 gpt-llm-trainer — упрощает процесс до-обучения ИИ-моделей под конкретную задачу.
{ Перекресток мнений }
#llm #text #music #speech #video #research #games #fomo #edu #map #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
DL Paper Reviews
Новая версия GPT-4 умеет решать олимпиадные задачки по математике на порядок круче, чем это делала предыдущая версия.
На соревновании, которое кстати еще идет, до апдейта GPT-4 решал только одну задачу и то с длинным промтом (по факту это подсказка).
…
На соревновании, которое кстати еще идет, до апдейта GPT-4 решал только одну задачу и то с длинным промтом (по факту это подсказка).
…
#ОбзорГены №4
Минувшая неделя отметилась очередью релизов, а также интересно наблюдать за применением AI в отраслях от маркетинга до спорта.
{ Свежак }
🔠 LLaMa-3 — новый лидер среди open source LLM. Результаты ChatBot Arena. На Hugging Face опубликовали обучающий датасет LLaMA-3.
🔠 Adobe выпустил Acrobat AI Assistant — чат-бот для поиска по PDF, также компания представила VideoGigaGAN — 8х апскейлер для видео.
🔠 Boston Dynamics представила Atlas, нового гуманоида на электродвигателях вместо поршней.
🔠 Вышла Reka Core — мультимодальная языковая модель, которая по Vision не хуже лидеров.
🔠 Яндекс релизнул сервис Нейро (аналог Perplexity).
{ Пульс }
⚡️ Легковесные LLM (LLaMA-3 8B / CodeQwen1.5-7B), размещаемые локально, обошли ChatGPT-3.5.
⚡️ Грядет новое поколение анимированных аватаров — VASA от Microsoft.
⚡️ Исследование: LLM лучше людей в фактчекинге.
{ Текстуры }
✅ Мысли про prompt-gramming (программирование на естественном языке) — ожидаем бум программируемой электроники.
✅ Каким станет веб-сайт в эпоху AI-чатботов / агентов — маркетологи не готовы полностью от него отказаться, но веб-сайт будет совершенно иным.
✅ Как запустить LLaMA-3 8В на локальном компьютере — используйте LM Studio.
✅ Как AI научился рекомендовать тактические приемы при угловых в футболе — разбор проекта DeepMind.
✅ Примеры применения Knowledge Maps в LLM-чатботах — подборка от тг-канала "LLM под капотом".
✅ Подборка ИИ-сервисов для ученых — от исследовательницы.
✅ Учёные, исследовавшие ДНК кишечной микрофлоры, встроили в Borderlands мини-игру, в которой игроки чинили реальные последовательности ДНК. В игру поиграло более 4 млн человек.
{ Находки }
😯 Lightning AI — альтернатива Google Colab для запуска нейросетей и GenAI-приложений.
😯 Vision Arena — таблица лидеров среди Vision-моделей.
😯 Waicas — всемирный конкурс среди создателей AI-инфлюенсеров.
{ Перекресток мнений }
❓ Великий ограничитель. В добавление к предыдущему посту интересный момент, что речь не о тотальной нехватки энергии, а о сконцентрированной в одном месте. Грубо говоря, датацентры (сверхкомпьютеры) начнут строить сразу вместе с электростанциями. Многие в индустрии ждут и надеются на прорыв в термоядерном синтезе, что символично для моего родного Троицка. Вряд ли советские ученые 1970-х думали, что создают технологию для искусственного интеллекта 😃
#llm #text #rag #robotics #research #promptgramming #industry #energy
Минувшая неделя отметилась очередью релизов, а также интересно наблюдать за применением AI в отраслях от маркетинга до спорта.
{ Свежак }
{ Пульс }
{ Текстуры }
✅ Мысли про prompt-gramming (программирование на естественном языке) — ожидаем бум программируемой электроники.
✅ Каким станет веб-сайт в эпоху AI-чатботов / агентов — маркетологи не готовы полностью от него отказаться, но веб-сайт будет совершенно иным.
✅ Как запустить LLaMA-3 8В на локальном компьютере — используйте LM Studio.
✅ Как AI научился рекомендовать тактические приемы при угловых в футболе — разбор проекта DeepMind.
✅ Примеры применения Knowledge Maps в LLM-чатботах — подборка от тг-канала "LLM под капотом".
✅ Подборка ИИ-сервисов для ученых — от исследовательницы.
✅ Учёные, исследовавшие ДНК кишечной микрофлоры, встроили в Borderlands мини-игру, в которой игроки чинили реальные последовательности ДНК. В игру поиграло более 4 млн человек.
{ Находки }
😯 Lightning AI — альтернатива Google Colab для запуска нейросетей и GenAI-приложений.
😯 Vision Arena — таблица лидеров среди Vision-моделей.
😯 Waicas — всемирный конкурс среди создателей AI-инфлюенсеров.
{ Перекресток мнений }
#llm #text #rag #robotics #research #promptgramming #industry #energy
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
эйай ньюз
🔥LLaMa 3 - дождались: Новая SOTA в open-source!
Сегодня день больших релизов от Meta, в которых и я и моя команда принимала прямое участие.
Зарелизили в опенсорс LLaMa-3 8B и 70B:
🔳LLaMa-3 8B – лучшая в своем классе модель, и сопоставима с LLaMa-2 70B…
Сегодня день больших релизов от Meta, в которых и я и моя команда принимала прямое участие.
Зарелизили в опенсорс LLaMa-3 8B и 70B:
🔳LLaMa-3 8B – лучшая в своем классе модель, и сопоставима с LLaMa-2 70B…