

Cos'è Grok 3
Grok 3 è l'ultimo modello linguistico di xAI, addestrato utilizzando un rivoluzionario framework di apprendimento per rinforzo su un cluster di 200.000 GPU. Dispone di 27 miliardi di parametri e una finestra di contesto di 1,28 milioni di token con recupero delle conoscenze in tempo reale.
Attraverso la modalità Think, Grok 3 può impegnarsi in processi di ragionamento profondo che durano da 6 secondi a 6 minuti, dimostrando prestazioni superiori al livello di esperti umani. Ha raggiunto una precisione del 93,3% nella competizione AIME 2025 e dell'84,6% nel GPQA di livello avanzato.
Come assistente IA versatile, Grok 3 supporta 12 linguaggi di programmazione, può elaborare contenuti di immagini e video, e utilizza DeepSearch per la verifica delle informazioni in tempo reale.
Caratteristiche Principali
Scopri le Innovazioni Rivoluzionarie in Grok 3
Motore di Ragionamento Avanzato
- Supporta processi di ragionamento profondo da 6s a 6min
- Precisione del 93,3% nella competizione AIME 2025 (64 iterazioni di ragionamento)
- Precisione dell'84,6% su problemi GPQA livello diamante (superando gli esperti umani)
- Framework di apprendimento per rinforzo basato su cluster di 200k GPU
Matematica e Scienza
- Media biennale AIME 2024/2025: 94,5% di precisione
- Benchmark MMLU-Pro: 79,9% di precisione (leader in STEM)
- Latenza media per la risoluzione di problemi matematici complessi: 67ms
Generazione e Ottimizzazione del Codice
- LiveCodeBench v5: 79,4% di precisione (valutazione programmazione in tempo reale)
- Supporta analisi di basi di codice di milioni di righe
- Supporta 12 linguaggi inclusi Python/Java/C++
Comprensione Multimodale
- Benchmark MMMU: 73,2% di precisione
- Comprensione video lungo EgoSchema: 74,5% di precisione
- Risoluzione problemi misti immagine-testo migliorata del 42%
Motore di Conoscenza in Tempo Reale
- Copre dati in tempo reale del web + dati sociali della piattaforma 𝕏
- Tempo di risposta medio per query complesse <800ms
- Supporta verifica incrociata da oltre 1.200 fonti affidabili
Elaborazione Contesto Lungo
- Memoria di contesto di 1M token (circa 750k caratteri)
- Analisi in singolo passaggio di documenti tecnici di 3000 pagine
- Precisione dell'83,3% nel benchmark LOFT 128k
Confronto delle Prestazioni
Competition Math
Graduate-Level Google-Proof Q&A (Diamond)
LiveCodeBench (v5)
Code Generation: 10/1/2024 - 2/1/2025
MMMU
Multimodal Understanding