Загрузка...

Questa settimana è stata davvero incredibile per l'Intelligenza Artificiale Open Source

Questa settimana è stata davvero incredibile per l'Intelligenza Artificiale Open Source. Ecco i principali aggiornamenti: Mistral (in collaborazione con Nvidia) ha rilasciato il NeMo 12B LLM con licenza Apache 2.0. È migliore del L3 8B e del Gemma 2 9B, supporta più lingue con un contesto di 128K e utilizza un tokenizzatore molto efficiente chiamato "tekken". Apple ha lanciato il DCLM 7B, un vero LLM open source basato su OpenELM, addestrato su 2.5 trilioni di token e con un punteggio MMLU di 63.72, superiore al Mistral 7B. Hugging Face ha presentato SmolLM, con modelli da 135M, 360M e 1.7B che possono funzionare direttamente nel browser. Superano Qwen 1.5B, Phi 1.5B e altri, pur essendo stati addestrati solo su 650 miliardi di token. Groq ha rilasciato i checkpoint del modello Llama 3 8B & 70B per l'uso degli strumenti e le chiamate di funzione, raggiungendo un'accuratezza del 90.76% nella classifica Berkely Function Calling Leaderboard (BFCL). Eccelle nell'uso delle API e nella manipolazione dei dati strutturati! Salesforce ha lanciato xLAM 1.35B e 7B Large Action Models, insieme a un dataset di fine-tuning di 60K istruzioni. Il modello 7B ha ottenuto un punteggio di 88.24% su BFCL e il 2B il 78.94%. Deepseek ha cambiato le carte in tavola con v2 chat 0628, il miglior LLM open nella classifica LYMSYS con 236 miliardi di parametri e 21 miliardi di parametri attivi. Eccelle anche nel coding (posizione #3) e nei problemi complessi dell'arena (posizione #3). #llm #intelligenzaartificiale #opensource

Видео Questa settimana è stata davvero incredibile per l'Intelligenza Artificiale Open Source канала Simone Rizzo
Страницу в закладки Мои закладки
Все заметки Новая заметка Страницу в заметки