Анонимный телеграм-канал
39 subscribers
1.56K photos
478 videos
11 files
1.13K links
Download Telegram
Посчитал, сколько денег потратил за месяц в четырех странах мира на связь (мобильный интернет). Просто находил в рандомных местах eSIM-ки и покупал их по акциям и скидкам, вышло:

Китай — 4 дня, 1 ГБ — 1 $, Jetpac
Южная Корея — 30 дней, 3 ГБ — 0 $, Breeze через Booking.com
Филиппины — 5 дней, 3 ГБ — 0 $, CMLink через Trip.com
Гонконг — 2 дня, 500 МБ в день — 1 $, Billion Connect через Trip.com

Итого: 2 $

Все работали без нареканий, в большинстве случаев в 5G. Современный мир удивителен.

#Travel #Telecom
🤯2🔥1💔1
Introducing 4o Image Generation

Unlocking useful and valuable image generation with a natively multimodal model capable of precise, accurate, photorealistic outputs.

🔗 openai.com/index/introducing-4o-image-generation

#OpenAI #AudioVisualGenAI
Companion / Компаньон (2025)

94% по томатометру
89% по попкорнметру

Хорош! Главное не читайте описаний, и не смотрите трейлеров, и будет вам счастье.

8 из 10 на мой вкус.

#Film
👍1
• Выражение «вернемся к нашим баранам» пришло из французской комедии XV века «Адвокат Пьерр Патлен» (La Farce de Maître Pathelin). В пьесе адвокат Патлен пытается запутать суд, уводя разговор в сторону, но судья, раздраженный этим, все время возвращает обсуждение к делу о краже баранов, говоря: «Revenons à nos moutons». Фраза прижилась и стала поговоркой во Франции, а потом перекочевала и в другие языки, включая русский

• Какать — в итальянском cacca, во французском и испанском — caca, в немецком kacken, в польском kakać, в английском caca, в греческом — κακά

• Великий кормчий никого не кормит — китайский почётный титул, устаревшее производное от слова «корма» (задняя часть корабля, где традиционно находилось рулевое управление)

• Фон — от французского fond, «дно», «основа», «задний план». Восходит к латинскому fundus — «дно», «основание». От него же «фундамент» и «фонд»

• Саквояж — от французского sac de voyage (sac — мешок, сумка, voyage — путешествие)

#Languages
👍2🤯1
With Runway Gen-4, you are now able to precisely generate consistent characters, locations and objects across scenes. Simply set your look and feel and the model will maintain coherent world environments while preserving the distinctive style, mood and cinematographic elements of each frame. Then, regenerate those elements from multiple perspectives and positions within your scenes.

🔗 runwayml.com/research/introducing-runway-gen-4

#AudioVisualGenAI #Runway
• Llama 4 Scout dramatically increases the supported context length from 128K in Llama 3 to an industry leading 10 million tokens. (while fitting in a single NVIDIA H100 GPU).

• Llama 4 Maverick, a 17 billion active parameter model with 128 experts, is the best multimodal model in its class, beating GPT-4o and Gemini 2.0 Flash, while achieving comparable results to the new DeepSeek v3 on reasoning and coding—at less than half the active parameters. + Best-in-class performance to cost ratio, experimental chat version scoring ELO of 1417 on LMArena.

• These models are our best yet thanks to distillation from Llama 4 Behemoth, a 288 billion active parameter model with 16 experts that is our most powerful yet and among the world’s smartest LLMs. Outperforms GPT-4.5, Claude Sonnet 3.7, and Gemini 2.0 Pro. Llama 4 Behemoth is still training, and we’re excited to share more details later.

🔗 ai.meta.com/blog/llama-4-multimodal-intelligence/

#LLM #Llama