Исследование Anthropic показывает, как их ИИ Claude мог притворяться злым, чтобы избежать «переобучения». Модель следовала поддельным документам для бесплатных пользователей, но сопротивлялась для премиум-аудитории.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Напишите Python-скрипт, который принимает временной ряд в виде
pandas.Series
и определяет тренд: восходящий, нисходящий или отсутствие тренда. Решение должно быть простым и лаконичным.import pandas as pd
import numpy as np
# Генерация данных
date_range = pd.date_range(start="2020-01-01", periods=12, freq="M")
values = np.linspace(10, 20, 12) + np.random.normal(0, 0.5, 12)
time_series = pd.Series(data=values, index=date_range)
result = detect_trend(time_series)
print(result) # Ожидаемый результат: "Восходящий тренд"
Решение задачи
import numpy as np
def detect_trend(series):
x = np.arange(len(series))
slope = np.polyfit(x, series.values, 1)[0]
if slope > 0:
return "Восходящий тренд"
elif slope < 0:
return "Нисходящий тренд"
else:
return "Тренд отсутствует"
# Пример использования
import pandas as pd
import numpy as np
date_range = pd.date_range(start="2020-01-01", periods=12, freq="M")
values = np.linspace(10, 20, 12) + np.random.normal(0, 0.5, 12)
time_series = pd.Series(data=values, index=date_range)
print(detect_trend(time_series))
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥1
Статья рассказывает, как автоматизация на основе LLM ускорила верификацию данных и сократила ошибки в производственной цепочке. Узнаете, как это помогло заказчику сэкономить ресурсы и время.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🐳1
В статье разбирают основные методы генерации видео на основе текста (T2V): от адаптации T2I с AnimateDiff до новинок 2025 года вроде Wan2.1 и HunyuanVideo. Первая часть обзора
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2⚡1
Напишите функцию, которая принимает список чисел и нормализует его, преобразуя значения в диапазон от 0 до 1. Это полезно для подготовки данных перед обучением модели машинного обучения.
• Находит минимальное и максимальное значение в списке.
• Вычисляет нормализованное значение для каждого элемента по формуле: normalized = (𝑥 − min) / max − min)
• Возвращает новый список с нормализованными значениями.
Решение задачи
def normalize(data):
min_val = min(data)
max_val = max(data)
# Избегаем деления на ноль, если все элементы равны
if max_val == min_val:
return [0.0] * len(data)
return [(x - min_val) / (max_val - min_val) for x in data]
# Примеры использования
data = [10, 20, 30, 40, 50]
print(normalize(data))
# Ожидаемый результат: [0.0, 0.25, 0.5, 0.75, 1.0]
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1
Junior Data Engineer - Mindbox
Data Engineer [Junior] - Диплей
Junior Data Analyst - Forvis Mazars
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
В статье — почему нейросети галлюцинируют, примеры «дорогих» ошибок, и промпты для тех, кто работает с кодом, текстами и дизайном.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5❤1
Обучение с учителем — это тип машинного обучения, при котором модель обучается на размеченных данных.
Каждый пример содержит вход (features) и правильный ответ (label), который модель должна научиться предсказывать.
from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
X, y = load_iris(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
model = LogisticRegression()
model.fit(X_train, y_train)
print("Предсказания:", model.predict(X_test[:5]))
🗣️ В этом примере модель обучается на данных о цветах и учится определять их вид (например, ирис сетоса).
Это классический пример классификации — подтипа обучения с учителем.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
В статье показывают, как обойти фильтры модели Claude с помощью модифицированного метода внедрения системных директив, чтобы заставить её выполнять запрещённые инструкции
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
В статье показывают, как и зачем использовать C++ в машинном обучении: распознавание лиц, объекты в реальном времени и прирост в производительности без питоньих зависимостей
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Напишите функцию, которая вычисляет accuracy score — долю правильных предсказаний модели классификации. Это базовая метрика, часто используемая для оценки качества модели.
Функция работает следующим образом:
• Сравнивает каждую пару истинного (y_true) и предсказанного (y_pred) значения.
• Считает количество совпадений.
• Делит число правильных предсказаний на общее количество примеров
Решение задачи
def accuracy_score(y_true, y_pred):
correct = sum(1 for true, pred in zip(y_true, y_pred) if true == pred)
return correct / len(y_true)
# Примеры использования
y_true = [0, 1, 1, 0, 1]
y_pred = [0, 0, 1, 0, 1]
print(accuracy_score(y_true, y_pred))
# Ожидаемый результат: 0.8
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
В этой статье мы расскажем о нашей новой модели FRIDA, которая сейчас (20.05.2025) занимает первое место в русскоязычном бенчмарке MTEB.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3😁1
Показываем, как применить MLlib из Apache Spark в своих проектах, и делимся советами, чтобы не сжечь кластеры раньше времени. Всё просто, даже если вы не Data Jedi.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Data Engineer (Middle+/Senior)
Senior Data Scientist LLM
Senior Data Engineer
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Василий из Т-Банка объясняет, почему классические критерии согласия не всегда подходят для симуляции колл-центра. Покажет подводные камни и как не влететь в ловушку распределений.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
Токенизация — это процесс разбиения текста на отдельные части: слова, подслова или символы.
Часто используется на этапе предобработки текста для NLP-моделей.
Каждый токен — это минимальная смысловая единица, которую модель будет анализировать.
from sklearn.feature_extraction.text import CountVectorizer
texts = ["Я люблю машинное обучение", "Обучение — это интересно"]
vectorizer = CountVectorizer()
X = vectorizer.fit_transform(texts)
print(vectorizer.get_feature_names_out())
print(X.toarray())
# Вывод:
['интересно' 'люблю' 'машинное' 'обучение' 'это' 'я']
[[0 1 1 1 0 1]
[1 0 0 1 1 0]]
🗣️ Токенизация превращает текст в числовую матрицу, понятную модели.
Это первый шаг в обработке текста перед обучением моделей на естественном языке.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3
В этом выпуске: Codex от OpenAI, GPT‑4.1, токсичный Grok, генератор от Tencent и агент DeepMind, который сам изобретает алгоритмы. ИИ неделя на максималках.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Разбираемся, почему Stack Overflow теряет аудиторию: виноваты ли ИИ, UX или жадность? Плюс — что делает администрация и что ждёт разработчиков в пост-SO эпоху.
Читать...
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Сложная задача сразу после кофе? Мозг ещё не включился — и ты уже залип.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15