🧑‍💻 Vibe-coding | AI практика 🤖
3.45K subscribers
289 photos
103 videos
1 file
261 links
Сообщество любителей мажористых нейронок и вайб-разработки.

Посмотри курсы на Stepik:
https://stepik.org/a/214391

Подключайся к нашему чату:
https://t.me/+60s9pMv8YilmMTc6

Наш бот в помощь:
@llm_course_bot 🧝🏻‍♀️

Админ @dfeeler
Download Telegram
ChatGPT выиграл в «‎Поле чудес».

Спасибо за внимание.
😁13😱1
Спонтанный секретный промик на 45% на наш LLM курс от Сэма Альтмана.

Действует час!

Забирайте промокод LASTSEPDAY

Update: закрыто
👏5👍41🤔1
Ребят, накидайте идей

Мы сейчас финалим стикер пак для LLM курса. Что добавить или исправить? Кидайте свои креативы в комменты)
😁93🤩2
Media is too big
VIEW IN TELEGRAM
Еще одна мощная штука для фанатов Jupyter Notebook

🧠 Codeium можно как расширение установить в среду и повысить эффективность работы в несколько раз. Кайф?

🔛 Если накидайте бустов, то пришлем пример, как автокомплитить код для обучения transformer’ов по фолдам для любого датасета.
👍14
Привет, это Андрей Богомолов.

Выпустился c Матфака Вышки, был СТО в ИИ-стартапе NLogic, а сейчас сооснователь в GenAI Lab, и в канале рассказываю, как мы внедряем генеративный ИИ в энтерпрайз

Не собираем подборки лучших промптов для контент-плана, но рассказываем о методах оценки точности RAG и нюансах разворачивали open-source LLM в контуре.

Делаем контент для разработчиков, продактов и всех, кто планирует или уже внедряет генеративный ИИ в свои процессы. Например, завтра в лайве расскажем, как сделали RAG-бота с интеграцией с БД интернет-магазина для консультации клиентов.

Подпишись, чтобы узнать больше про внедрение GenAI: @genailab
👍3👏32👎2🗿1
Google украл вашу стартап идею: paper to podcast

Революция в чтении статей. Google анонсировал Paper to Podcast, инновационное решение, которое превращает научные статьи в увлекательные подкасты!

Гугл создал продукт, который позволяет загрузить статью и автоматически превратить ее в подкаст с двумя ролями: один задаёт вопросы, а другой отвечает. Это теперь реальность с Paper to Podcast.

Гугл понимает, что водителям, любителям походов и фитнеса, как и многим другим, не хватает подкастов, которые анализируют последние статьи, пока они на ходу. С Paper2Podcast теперь можно наслаждаться активностями на свежем воздухе, оставаясь в курсе стремительного прогресса в ИИ.

Попробовать можно по ссылке. (зарегистрируйтесь и подождите немного, чтобы получить доступ)
7
GraphRAG теперь Open source!

GraphRAG от Microsoft использует большие языковые модели для создания подробных графов знаний из текстовых документов, помогая выполнять сложные запросы к данным.

Этот инструмент превосходит традиционный RAG, предлагая комплексный структурированный поиск информации.  

GraphRAG можно легко развернуть в Azure с помощью предоставленного ускорителя решений.

👨‍💻Блог
🐙 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
Нас отметили! 🏆
На Хабре завершился "Автоген-челлендж" по результатам которого наш гайд по тюнингу LAMA занял первое место🥇, а Алерон получил звание "Главного Автогенщика" 🏋.

Этот гайд является одним из ноутбуков урока по файнтюнингу LLM.
Приятно получать признание за проделанную работу.😇

Уже успели пройти этот урок?
13👍3
В полку проектов на 30 из 30 прибыло! 🦾

На этот раз отличную идею представил и реализовал студент курса Владислав Вирясов.

"Мечта любой хозяйки 😁" - AI Cooking Assistent (код).

Сервис реализован в виде веб-приложения на Streamlit, может помочь с поиском картинки неизвестного блюда и его рецептурой, предложить рецепт по имеющемуся набору ингридиентов.
Под капотом много наворотов:
- RAG система на базе 40 000 рецептов
- Ипользование LAMA 3.1 70B
- Router Chain с агентами
- Whisper для работы с голосовым вводом

Осталось добавить память для хранения контекста диалога с ассистентом и будет просто 🚀

В общем, Владислав постарался на славу - очень круто!🔥

P.S: Пишите в комментариях, как вам проект Владислава и поддержите автора 👍
👍13🤩21
Снял для вас еще одну часть про кодинг без кодинга.

🧙 На этой раз уже не сайт, а про телеграм бот без кодинга и конструкторов, все на AI

🎁 Приятного просмотра, пусть этот видос намертво снимет с вас желание писать код руками 😄.

🎥 Ссылка на видео

🚀 С вас буст, если кайфуете от таких разборов
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10👎22😁1🗿1
Forwarded from do...while...ai (Gregory is typing...)
Ода Structured Output

Хочу показать уличную магию, которая изменила мою жизнь. Не так давно OpenAI расширила поддержку structured output в своём API: это когда вы LLM показываете схему данных в виде Pydantic объекта, а на выходе получаете готовый распарсенный и заполненный Dict. Этакий json_output "на стероидах".

Демонстрировать на gpt-4o было бы слишком банально, там всё работает из коробки. А я усложню задачу, и сделаю тоже самое на локальном сервере llama.cpp, в котором работает квантизованная модель Qwen 2.5 7B с квантизацией q4_k_m (потому что у меня слабенький M1 Pro с 16 гигами оперативки, и я пока не купил себе M4 Ultra) .

Итак, задача будет следующая: извлечь ключевые сущности из текста
"Жили у бабуси два веселых гуся. Один - серый, а другой - белый. Два веселых гуся."

И получить на выходе объект Dict, в котором разложены сущности и атрибуты.

Ниже привожу полностью рабочий код:
from openai import OpenAI
from typing import List, Optional, Dict
from pydantic import BaseModel, Field

# use your favorite inference server
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="not-needed"
)

input_text = "Жили у бабуси два веселых гуся. Один - серый, а другой - белый. Два веселых гуся."

# define the data schema
class Attribute(BaseModel):
name: str = Field(..., description="Name of the attribute")
value: str = Field(..., description="Value of the attribute")

class Creature(BaseModel):
name: Optional[str] = Field(None, description="Name of the identified creatures")
attributes: Optional[List[Dict[str, str]]] = Field(None, description="List of attribute key-value pairs")

class ExtractedCreatures(BaseModel):
entities_and_attributes: List[Creature] = Field(default_factory=list, description="List of extracted creatures")

# command the model to extract data using the data schema
messages = [
{"role": "system", "content": """
Extract all creatures and their characteristics from the user text according to the specified schema.
"""},
{"role": "user", "content": input_text}
]

print("Executing...")
completion=client.beta.chat.completions.parse(
model="not-needed",
temperature=0.1,
messages=messages,
response_format=ExtractedCreatures
)

print("Result:")
# get the results as a dictionary
parsed_dict = completion.choices[0].message.parsed

# output the results as a JSON string
print(parsed_dict.model_dump_json(indent=2, exclude_none=True))


Результат — в первом комменте.

Небольшая "пояснительная бригада" по дизайну схемы данных: мы определяем атомарные Pydantic классы, которые потом объединяем в один результирующий класс. Описание того, что положить в конкретный объект пишем в поле description. Если поле необязательное — ставим ему Optional. Если нужен выбор по типу enum, то ставим полю тип Literal и явно перечисляем допустимые значения (модель сама разберется и поставит нужное). Если нужен составной объект типа массива или словаря, объявляем их как List и Dict соответственно. Системный промпт — микроскопический.

Самое крутое, что в одной схеме данных можно объединить парсинг данных, рассуждения и принятие решения. Вы просто определяете три мембера у Pydantic класса: первый — это класс, куда нужно попарсить данные, второй — поле reasoning: str = Field(..., description="Chain of thoughts and reasoning"), сюда модель напишет свои рассуждения, а третье поле result: str = (..., description="Place 'Yes' or 'No' here").

Через structured output можно делать скоринг данных, чеклисты по большому документу (например, вытаскивание финансовых показателей), и многое другое. Это ли не чудо!

Да, не забудьте обновить openai библиотеку до 1.52.0+.

Для внеклассного чтения пара доп. ссылок по structured output:
💎 https://platform.openai.com/docs/guides/structured-outputs
💎 https://openai.com/index/introducing-structured-outputs-in-the-api/

В комментах — результат скрипта и бонус-трек.

Openai
OpenAI Platform
Explore developer resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's platform.
5
Приглашаем на вебинар по ChatGPT от Stepik!💻

7 ноября 2024 года в 15-00 (по мск) состоится стрим «Как работает ChatGPT? Разбираем простым языком?».
На вебинаре мы визуально изучим внутренние механизмы популярных GPT моделей таких как ChatGPT, GigaChat, Llama, Gemini, Claude. Мы детально разберем архитектуру трансформеров на части и узнаем как они работают и почему они так хорошо работают.

Проведет его Азиз Муминов – студент направления Quantum Artificial Intelligence и компьютерного зрения у Yonsei University(Южная Корея) и Dickinson College(США). CTO в стартапе SynCall - занимался разработкой TTS, LLM, chain of thought, RAG, Semantic Routing.

Кому будет интересно прийти на интенсив?

Новичкам, интересующимся искусственным интеллектом и работой GPT-моделей. Достаточно базовых знаний математики — все сложные концепции будут объяснены на простых примерах и с помощью анимаций. Кроме того, даже те, кто уже знаком с ИИ, смогут задать свои вопросы во время специальной Q&A сессии.

Вы можете ознакомиться с мероприятием и записаться на странице мероприятия
https://welcome.stepik.org/chatgptintensive.

#stepik #интенсив #chatgpt #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4
😎 Генерим картинки в ЛУЧШЕЙ нейросети Flux 1.1 Ultra — её на халяву завезли на Glif.

Под капотом ещё докрутили Claude, который будет улучшать ваши промты. Важно: не забудьте поставить режим «реализм».

Можно юзать бесплатно — на день дают 20 запросов!

🎚️ 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Господа дизайнеры, контролируйте свои оргазмы — редактор Rive выпустил новую функцию Layout 😱

Наверное, лучшее описание — это буквально как та самая штука в Фотошопе, которую показали, но так и не выпустили: она позволяет менять соотношение сторон, автоматически подстраивая элементы дизайна.

Если искали альтернативу Figma «с фишками на базе ИИ», то он ждёт.

🎚️ Знайте 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
👀1
Dentsu_Media Trends_2025 (49 pgs).pdf
6.7 MB
«ГОД ВЛИЯНИЯ»

10 главных трендов 2025 от DENTSU
5
🔝10 ГЛАВНЫХ МЕДИА-ТРЕНДОВ 2025

Японский рекламно-коммуникационный холдинг Dentsu выпустил отчёт с главными креативными трендами 2025 года.


Кратко ключевые моменты:

🧠 ВЛИЯНИЕ ИИ

1️⃣ ИИ становится неотъемлемой частью повседневной жизни миллионов людей, что скажется на взаимодействии с медиа и брендами.

2️⃣ В 2025 ожидается шквал новых медиа-решений и платформ на базе ИИ. Новые инструменты позволят автоматизировать все от таргетинга до планирования бюджетов.

3️⃣ ИИ будет создавать все больше микромоментов взаимодействия с аудиторией, которые брендам необходимо использовать для повышения лояльности.

СТОРИТЕЛЛИНГ

4️⃣ Создатели пользовательского контента становятся более ценными для брендов, обеспечивая подлинную связь с аудиторией.

5️⃣ Благодаря растущей популярности стриминговых сервисов у брендов будет больше возможностей для рекламных интеграций.

6️⃣ Алгоритмы становятся все умнее и показывают аудитории тот контент, который лучше всего работает в определенное время.

ПОВЫШЕНИЕ КАЧЕСТВА

7️⃣ Розничная торговля меняет медиа. Бренды будут прикладывать больше усилий на создание комплексных рекламных решений, отслеживая качество каждого этапа.

8️⃣ Успех брендов будет зависеть от использования максимально полной и прозрачной цепочки касаний с аудиторией.

9️⃣ Партнерства – новая золотая лихорадка. Чтобы завоевать аудиторию в долгосрочной перспективе необходимо привлечь ее внимание высококачественным контентом, который проще достичь с помощью партнерств.

НЕРАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ

0️⃣ Неравномерное развитие технологий привело к серьезным региональным отличиям, которые, как и культурные особенности, необходимо учитывать при создании стратегий.

Сохраняйте в Избранное и делитесь с коллегами ❤️

@big_llm_course
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝1