https://twitter.com/arcprize/status/1834703303621710077
o1 такий самий як Claude Sonnet 3.5 (який взагалі середненька модель) на ARC
чекаєм Claude Opus)
P.S. виправив помилку
o1 такий самий як Claude Sonnet 3.5 (який взагалі середненька модель) на ARC
чекаєм Claude Opus)
P.S. виправив помилку
X (formerly Twitter)
ARC Prize (@arcprize) on X
We put OpenAI o1 to the test against ARC Prize.
Results: both o1 models beat GPT-4o. And o1-preview is on par with Claude 3.5 Sonnet.
Can chain-of-thought scale to AGI? What explains o1's modest scores on ARC-AGI?
Our notes:
https://t.co/sV6LM1foGx
Results: both o1 models beat GPT-4o. And o1-preview is on par with Claude 3.5 Sonnet.
Can chain-of-thought scale to AGI? What explains o1's modest scores on ARC-AGI?
Our notes:
https://t.co/sV6LM1foGx
https://x.com/chriswolfvision/status/1834888892324970961
"If a reviewer is flagged by an Area Chair as “highly irresponsible”, their paper submissions will be desk rejected per the discretion of the PCs"
ого
"If a reviewer is flagged by an Area Chair as “highly irresponsible”, their paper submissions will be desk rejected per the discretion of the PCs"
ого
пехаде блог
новий перекладач дає нову альпаку
на евалах виявилося що склеювання речень дає кращий результат ніж модель з довгим контекстом (32 BLEU vs 25 BLEU найкраща модель дає на довгій версії флореса)
шкода, пейпера не буде, але UAlpaca нову можна запустити на склейці
шкода, пейпера не буде, але UAlpaca нову можна запустити на склейці
пехаде блог
Привіт всім! Нагадуємо, сьогодні у нас мітап з @robinhad на тему Text-to-Speech 🤖🎙 Чекаємо вас на 15:00 - МолоДвіжЦентр.Львів - Київський Молодіжний центр - онлайн
TTS Speedrun - Юрій Панів @ UCU + AI House 14.03.2024:
На цій лекції розповідаю загальний огляд Text-to-Speech для новачків. У лекції покрито загальний огляд архітектур, як використати, як натренувати з кодом для тренування вкінці.
📺 Відео: https://www.youtube.com/watch?v=VNoGmmz80RA
🧮 Код: https://colab.research.google.com/drive/1l3DD5ofbJeD36wH4R97z3DuMCcGn-1wx#scrollTo=LI3qqX8zsUEt
обіцяв же що скину пізніше)
На цій лекції розповідаю загальний огляд Text-to-Speech для новачків. У лекції покрито загальний огляд архітектур, як використати, як натренувати з кодом для тренування вкінці.
📺 Відео: https://www.youtube.com/watch?v=VNoGmmz80RA
🧮 Код: https://colab.research.google.com/drive/1l3DD5ofbJeD36wH4R97z3DuMCcGn-1wx#scrollTo=LI3qqX8zsUEt
обіцяв же що скину пізніше)
YouTube
TTS Speedrun - Юрій Панів @ UCU + AI House 14.03.2024
На цій лекції розповідаю загальний огляд Text-to-Speech для новачків. У лекції покрито загальний огляд архітектур, як використати, як натренувати з кодом для тренування вкінці.
Код: https://colab.research.google.com/drive/1l3DD5ofbJeD36wH4R97z3DuMCcGn-1wx…
Код: https://colab.research.google.com/drive/1l3DD5ofbJeD36wH4R97z3DuMCcGn-1wx…
https://github.com/vllm-project/vllm/pull/8751
This PR adds support for loading FP16 models in custom Floating-Point formats at runtime. It currently supports FP4, FP5, FP6, and FP7.
Some useful features:
• Loads at the specified data type, so you won't need enough memory to fit the FP16 weights (unlike the current FP8 quant in vLLM)
• Preserves FP16 batched throughput
• FP6 matches FP8/FP16 accuracy
• Near-instant quantization; takes ~8 seconds for 8B
This PR adds support for loading FP16 models in custom Floating-Point formats at runtime. It currently supports FP4, FP5, FP6, and FP7.
Some useful features:
• Loads at the specified data type, so you won't need enough memory to fit the FP16 weights (unlike the current FP8 quant in vLLM)
• Preserves FP16 batched throughput
• FP6 matches FP8/FP16 accuracy
• Near-instant quantization; takes ~8 seconds for 8B
GitHub
[Kernel][Quantization] Custom Floating-Point Runtime Quantization by AlpinDale · Pull Request #8751 · vllm-project/vllm
This PR adds support for loading FP16 models in custom Floating-Point formats at runtime. It currently supports FP4, FP5, FP6, and FP7.
Some useful features:
Loads at the specified data type, so y...
Some useful features:
Loads at the specified data type, so y...
For example, we train models that write secure code when the prompt states that the year is 2023, but insert exploitable code when the stated year is 2024. We find that such backdoor behavior can be made persistent, so that it is not removed by standard
safety training techniques, including supervised fine-tuning, reinforcement learning, and adversarial training (eliciting unsafe behavior and then training to remove it).
гарна стаття)
https://arxiv.org/pdf/2401.05566
safety training techniques, including supervised fine-tuning, reinforcement learning, and adversarial training (eliciting unsafe behavior and then training to remove it).
гарна стаття)
https://arxiv.org/pdf/2401.05566
https://www.kva.se/en/news/the-nobel-prize-in-physics-2024/
цьогорічну Нобелівку з фізики отримали Хінтон і Хопфілд 👀
цьогорічну Нобелівку з фізики отримали Хінтон і Хопфілд 👀
Kungl. Vetenskapsakademien
The Nobel Prize in Physics 2024: They trained artificial neural networks using physics
The Royal Swedish Academy of Sciences has decided to award the Nobel Prize in Physics 2024 to John J. Hopfield, Princeton University, NJ, USA and Geoffrey E. Hinton, University of Toronto, Canada “for foundational discoveries and inventions that enable machine…
аааааа Нобелівку з хімії має Деніс Хассабіс (DeepMind)
https://x.com/NobelPrize/status/1843951197960777760
https://x.com/NobelPrize/status/1843951197960777760
X (formerly Twitter)
The Nobel Prize (@NobelPrize) on X
BREAKING NEWS
The Royal Swedish Academy of Sciences has decided to award the 2024 #NobelPrize in Chemistry with one half to David Baker “for computational protein design” and the other half jointly to Demis Hassabis and John M. Jumper “for protein structure…
The Royal Swedish Academy of Sciences has decided to award the 2024 #NobelPrize in Chemistry with one half to David Baker “for computational protein design” and the other half jointly to Demis Hassabis and John M. Jumper “for protein structure…
мій пропоузал на дисертацію у вигляді подкасту від NotebookLM
📺 https://www.youtube.com/watch?v=dzN3uJxn97Y
гордо зроблено за допомогою NotebookLM + Flux Dev + ffmpeg
📖 текстова версія пропоузалу: https://arxiv.org/abs/2410.07880
📺 https://www.youtube.com/watch?v=dzN3uJxn97Y
гордо зроблено за допомогою NotebookLM + Flux Dev + ffmpeg
📖 текстова версія пропоузалу: https://arxiv.org/abs/2410.07880
YouTube
Мій proposal на дисертацію "Unsupervised Data Validation Methods for Efficient Model Training"
Гордо зроблено за допомогою NotebookLM + Flux Dev + ffmpeg
Повна версія пропоузалу: https://arxiv.org/abs/2410.07880
Повна версія пропоузалу: https://arxiv.org/abs/2410.07880
перетворюю mid-resource language у high-resource
Average file size: 479.40 KB
Total number of files in the folder: 906513
Approximate total size of all PDFs: 0.40473359980167134 TB
ще 300 000 файлів мають проіндексуватись, ще мільйон треба подивитись чого не індексується)
Average file size: 479.40 KB
Total number of files in the folder: 906513
Approximate total size of all PDFs: 0.40473359980167134 TB
ще 300 000 файлів мають проіндексуватись, ще мільйон треба подивитись чого не індексується)
Gradient Accumulation всюди зламаний
1. GA is supposed to be mathematically equivalent to full batch training, but losses did not match.
2. We reproed the issue, and further investigation showed the L2 Norm betw bsz=16 and ga=16 was 10x larger.
https://x.com/danielhanchen/status/1846235913443262891
1. GA is supposed to be mathematically equivalent to full batch training, but losses did not match.
2. We reproed the issue, and further investigation showed the L2 Norm betw bsz=16 and ga=16 was 10x larger.
https://x.com/danielhanchen/status/1846235913443262891
ваш шанс записатись на наш курс по GenAI як вільний слухач через форму на цьому сайті:
початок 25 жовтня
https://apps.ucu.edu.ua/data-science/curriculum/generative-ai/
початок 25 жовтня
https://apps.ucu.edu.ua/data-science/curriculum/generative-ai/