App Notizie
41 subscribers
29.8K photos
4.59K videos
9 files
51.6K links
App Notizie Community, per chi ama l'universo delle App, i Social, le criptovalute. Uno sguardo ed un confronto sull'universo Tech!!

https://telegra.ph/App-Notizie-%C3%A8-su-Telegram-04-27

https://telegra.ph/App-Notizie-%C3%A8-su-Twitter-04-27
Download Telegram
App Notizie
Photo
List '1397930001362657281' on X/Twitter

RT @ZackSnyder: Join me in supporting and raising funds for @afspnational by bidding on one-of-a-kind character portraits shot by me, on the set of #RebelMoon. Bidding is live now through August 6th at https://t.co/Keh2W9gGLp. https://t.co/P8PyBkZkGW
App Notizie
Photo
List '1397930001362657281' on X/Twitter

🔰 Nuova discussione su Feddit, scopri il Fediverso! 💙

Ecco anche Proton Wallet (per i Bitcoin)

https://t.co/dvc9M2oqX9
App Notizie
Video
List '1397930001362657281' on X/Twitter

Timothée Chalamet is Bob Dylan in ‘A Complete Unknown’.

In theaters December.

https://t.co/6PRKso0tW1
List '1397930001362657281' on X/Twitter

This interview has been a real pleasure. 😍

Make sure to check it out! 👇

My interview with @TutaPrivacy is live! We discuss the world of end-to-end encryption, user privacy, and so much more! I asked some tough questions and it only reassured me their team is the real deal—keep rocking it! 🔥
https://t.co/TSp0pWd6Ms
- Techlore
App Notizie
Photo
List '1397930001362657281' on X/Twitter

Today we announced the takedown of two sets of accounts on our apps that were attempting to engage in financial sextortion scams.
https://t.co/LsBDyeoBIm
App Notizie
Video
List '1397930001362657281' on X/Twitter

Users on vacation or at an event can add a location tag to their story to show where they were.

Tapping a location tag opens other public stories from the same place – to see more concert selfies or restaurant recommendations. #TelegramTips
App Notizie
Photo
List '1397930001362657281' on X/Twitter

Llama 3.1 per il dominio di Meta sulla IA generativa

https://t.co/cOVa8PiZAV #IA #tech #socialmedia
App Notizie
Photo
List '1397930001362657281' on X/Twitter

Meta presenta #Llama 3.1 405B, un modello di IA generativa open-source con 405 miliardi di parametri. E supera la concorrenza di GPT-4 e Claude 3.5 in prestazioni e accessibilità. Entro fine anno sarà il chatbot più usato al mondo.

Non passa giorno che non ci sia un annuncio riguardante l’intelligenza artificiale e il lancio di un nuovo modello sempre più performante. L’ultimo annuncio di rilievo proviene da Meta.

Si tratta di un modello che rappresenta un ulteriore passo avanti nel campo degli LLM (Large Language Model), e si distingue per essere open-source.

È evidente che la #IAGenerativa è la tecnologia del momento e le aziende puntano sempre di più a prevalere in un settore sempre più all’avanguardia.

E dal punto di vista degli annunci, non passa inosservato quello di Meta. L’azienda guidata da Mark Zuckerberg ha annunciato Llama 3.1 405B. Una novità questa che era attesa dal mese di aprile quando Meta disse di aver iniziato a lavorare su un modello più performante e innovativo.

E in effetti da quello che si conosce rispetto a questo modello l’elemento di novità risiede, secondo il punto di vista di molti, nel fatto che si tratta un modello open-source.

Ecco Llama 3.1 405B
Prima di vedere bene cosa significa portare il concetto di open source in un modello di IA generativa, cerchiamo di conoscere meglio le caratteristiche di Llama 3.1 405B.

Intanto va dello subito che si tratta del più grande modello LLM, open source, mai rilasciato. E Meta sostiene anche che questo suo modello sia superiore a modelli come GPT-4o e Claude 3.5 Sonnet di Anthropic rispetto a diverse prestazioni.

In generale, un LLM di grandi dimensioni con un gran numero di parametri può svolgere compiti più complessi rispetto a LLM più piccoli. Come comprendere il contesto in lunghi flussi di testo; risolvere complesse equazioni matematiche e persino generare dati sintetici che possono presumibilmente essere utilizzati per migliorare modelli di intelligenza artificiale più piccoli.

Modello addestrato sui chip Nvidia
Ora, il modello di Meta è stato addestrato su oltre 16.000 GPU NVIDIA H100. Allo stato attuale, stiamo parlando dei chip più veloci disponibili che arrivano a costare circa 25.000 dollari ciascuno. Meta sostiene che questo modello può battere i rivali rispetto a oltre 150 benchmark.

Il numero “405B” sta per 405 miliardi di parametri. Ossia variabili interne che un modello di IA utilizza per ragionare e prendere decisioni. Più grande è il numero di parametri di un modello di IA e più intelligente questo modello viene percepito.

Meta ha anche rilasciato versioni aggiornate di modelli Llama esistenti che contengono 70 miliardi e 8 miliardi di parametri ciascuno.

Continua la lettura su @InTime_Blog

#socialmedia #ArtificialIntelligence
App Notizie
Photo
List '1397930001362657281' on X/Twitter

RT @ZackSnyder: Please sign up here for an opportunity to join me as my guest for a special sneak peek of the first two episodes of Twilight Of The Gods on Friday evening, August 2 at Netflix. Tickets are limited and offered on a first come first served basis. https://t.co/PZvvG11VVA https://t.co/DpcL7bVkup
App Notizie
Video
List '1397930001362657281' on X/Twitter

We all have an email alter ego - who is yours? 🥸

Let us know in the comments!
#email #privacy #officehumor #security #encryption https://t.co/GlzvBDpPbP
App Notizie
Photo
List '1397930001362657281' on X/Twitter

RT @insopportabile: La gara a chi ha l’IA più grande, ma vediamo quella che diventerà standard.

Meta presenta #Llama 3.1 405B, un modello di IA generativa open-source con 405 miliardi di parametri. E supera la concorrenza di GPT-4 e Claude 3.5 in prestazioni e accessibilità. Entro fine anno sarà il chatbot più usato al mondo.

Non passa giorno che non ci sia un annuncio riguardante l’intelligenza artificiale e il lancio di un nuovo modello sempre più performante. L’ultimo annuncio di rilievo proviene da Meta.

Si tratta di un modello che rappresenta un ulteriore passo avanti nel campo degli LLM (Large Language Model), e si distingue per essere open-source.

È evidente che la #IAGenerativa è la tecnologia del momento e le aziende puntano sempre di più a prevalere in un settore sempre più all’avanguardia.

E dal punto di vista degli annunci, non passa inosservato quello di Meta. L’azienda guidata da Mark Zuckerberg ha annunciato Llama 3.1 405B. Una novità questa che era attesa dal mese di aprile quando Meta disse di aver iniziato a lavorare su un modello più performante e innovativo.

E in effetti da quello che si conosce rispetto a questo modello l’elemento di novità risiede, secondo il punto di vista di molti, nel fatto che si tratta un modello open-source.

Ecco Llama 3.1 405B
Prima di vedere bene cosa significa portare il concetto di open source in un modello di IA generativa, cerchiamo di conoscere meglio le caratteristiche di Llama 3.1 405B.

Intanto va dello subito che si tratta del più grande modello LLM, open source, mai rilasciato. E Meta sostiene anche che questo suo modello sia superiore a modelli come GPT-4o e Claude 3.5 Sonnet di Anthropic rispetto a diverse prestazioni.

In generale, un LLM di grandi dimensioni con un gran numero di parametri può svolgere compiti più complessi rispetto a LLM più piccoli. Come comprendere il contesto in lunghi flussi di testo; risolvere complesse equazioni matematiche e persino generare dati sintetici che possono presumibilmente essere utilizzati per migliorare modelli di intelligenza artificiale più piccoli.

Modello addestrato sui chip Nvidia
Ora, il modello di Meta è stato addestrato su oltre 16.000 GPU NVIDIA H100. Allo stato attuale, stiamo parlando dei chip più veloci disponibili che arrivano a costare circa 25.000 dollari ciascuno. Meta sostiene che questo modello può battere i rivali rispetto a oltre 150 benchmark.

Il numero “405B” sta per 405 miliardi di parametri. Ossia variabili interne che un modello di IA utilizza per ragionare e prendere decisioni. Più grande è il numero di parametri di un modello di IA e più intelligente questo modello viene percepito.

Meta ha anche rilasciato versioni aggiornate di modelli Llama esistenti che contengono 70 miliardi e 8 miliardi di parametri ciascuno.

Continua la lettura su @InTime_Blog

#socialmedia #ArtificialIntelligence
- Franz Russo