Technology Innovation Institute introduce il più potente Open LLM al mondo

Il Technology Innovation Institute (TII) negli Emirati Arabi Uniti (UAE) lancia un modello con 180 miliardi di parametri

Autore: Business Wire

Il Technology Innovation Institute (TII) negli Emirati Arabi Uniti (UAE) sta innovando nel campo della IA generativa ancora una volta con il lancio di Falcon 180B, una iterazione avanzata del proprio large language model (LLM) più rinomato. Questo importante rilascio rafforza l'influenza del UAE nel campo delle IA, offrendo Falcon 180B come modello open access per ricercatori e scopi commerciali.

In seguito all'importante successo di Falcon 40B, un modello IA open source che ha rapidamente scalato la Hugging Face Leaderboard per gli LLM a maggio 2023, TII, pilastro fondamentale operante nel campo della ricerca per l'Abu Dhabi Advanced Technology Research Council (ATRC), continuando a guidare il cambiamento nel campo della IA generativa. FAlcon 40B ha segnato uno dei primi casi di modelli open source disponibili sia per i ricercatori, sia per gli utenti commerciali, ed è stato considerato un importante passo avanti nel settore.

H.E. Faisal Al Bannai, Secretary General dell'Advanced Technology Research Council, evidenzia l'impatto positivo di Falcon nel panorama delle IA e ha così commentato: "Ci immaginiamo un futuro dove le spinte di cambiamento dovute al potere delle IA saranno disponibili a chiunque. Siamo impegnati nel democratizzare l'accesso alle IA avanzate, visto che la nostra privacy e il potenziale impatto delle IA sull'umanità non dovrebbero essere sotto il controllo di poche aziende. Anche se non disponiamo di tutte le risposte, il nostro impegno rimane lo stesso: vogliamo collaborare e contribuire alla community open source, assicurando che i benefici delle IA siano condivisi da tutti".

Con oltre 180 miliardi di parametri e venendo testato e allenato su 3,5 trilioni di token, Falcon 180B si posiziona in cima alla Hugging Face Leaderboard per gli LLM pretrained. Riesce ad avere migliori performance rispetto a competitor come LLaMA 2 in vari benchmark, tra cui reasoning, coding, proficiency, e knowledge test.

Tra i migliori closed source LLM, Falcon 180B si posiziona subito dietro l'ultima versione di GPT 4 di OpenAI ed è allo stesso livello di performance con PaLM 2 Large di Google, il modello dietro Bard (nonostante sia la metà in dimensione rispetto a tale modello). Il framework della licenza per il modello è stabilito sulla "‘Falcon 180B TII License", che è basata su Apache 2.0.

Dr. Ebtesam Almazrouei, Executive Director e Acting Chief Researcher dell'unità AI Cross-Center presso TII, ha riferito: "Il lancio di Falcon 180B rappresenta il nostro impegno nel progredire verso le nuove frontiere dell'IA e siamo felici di condividere il suo potenziale illimitato con tutto il mondo. Falcon 180B dà il via a una nuova era dell'IA generativa, dove il potenziale sviluppo scientifico disponibile tramite l'open access permetterà di facilitare l'innovazione del futuro. Mentre ci avviciniamo sempre di più alle frontiere della scienza e della tecnologia, la nostra visione guarda oltre l'innovazione: si tratta di far crescere un legame profondo per risolvere le sfide e i problemi tramite nuove scoperte e sviluppi in collaborazione con il resto del mondo".

Con oltre 12 milioni di sviluppatori che hanno adottato e stanno usando la prima versione di Falcon, questo importante aggiornamento apre la strada per diventare il modello premium per molti settori diversi, dai chatbot alla generazione del codice e molto altro. Falcon 180B è compatibile in tutte le principali lingue: inglese, tedesco, spagnolo e francese, con capacità limitate in italiano, portoghese, polacco, olandese, rumeno, ceco e svedese.

Fonte: Business Wire


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.