Foar BMS, Bus, yndustriële, ynstrumintaasje-kabel.

Elon Musk en it XAI-team lanseart offisjeel de lêste ferzje fan Grok, Grok3, tidens in livestream. Foarôfgeand oan dit evenemint, in signifikant bedrach fan besibbe ynformaasje, koppele mei Musk's 24/7-promoasje hype, ferhege wrâldwide ferwachtingen foar Grok3 nei Ungewoane nivo's. Just in wike lyn sei Musk fertrouwen tidens in livestream by kommentaar op Deepseek R1, "is Xai op it punt in better AI-model te lansearjen." Fanôf de oanwêzige live fan 'e gegevens hawwe Grok3 om alle hjoeddeistige Mainstream oer te hâlden foar wiskunde, wittenskip, en programmearje jo sels mars-miss, yn' e trije jier "trochbraakpriisnivo." Dit binne lykwols op it stuit gewoan Musk's bewearingen. Nei de lansearring testen ik de lêste beta-ferzje fan Grok3 en posearre de klassike trúkfraach foar grutte modellen: "Hokker grutter, 9.11 of 9,9?" Spyt, sûnder kwalifikaasjewedstriden of markearringen, de saneamde smartest, koe dizze fraach noch net korrekt beantwurdzje. Grok3 slagge de betsjutting fan 'e fraach net te identifisearjen.
Dizze test luts gau wichtige oandacht út, en tafallich hawwe yn it bûtenlân, hawwe ferskate soartgenoaten Grocks toand Grockgle mei basisfeart mei basis fan 'e rêdingsfragen lykas "Hokker bal falt earst fan' e leagen fan Pisa?" Sa is it humoristysk label, as "in sjeny net ree om ienfâldige fragen te beantwurdzjen."

Grok3 is goed, mar it is net better dan R1 of O1-Pro.
Grok3 belibbe "mislearre" op in protte mienskiplike kennis testen yn 'e praktyk. Tidens it XAI-lansearringspleven, Muskeleven, MUSK oantoand om de karakterklassen en effekten te analysearjen út it spultsjepaad fan ballingskip 2, dy't hy faak spielte, mar de measte fan 'e antwurden binne troch Grok3, wiene ferkeard. Muskinst yn 'e livestream fersterke dit fanselssprekkend probleem net.
Dizze flater hat net allinich fierder bewiis levere foar oerseeske netizen om musk te bespotme foar "in ferfangen fine yn gaming, mar ek opwekke wichtige soargen oer de betrouberens fan Grok3 yn praktyske applikaasjes. Foar sa'n "sjeny", nettsjinsteande syn werklike mooglikheden, har betrouberens yn ekstreem kompleks applikaasje-senario's, lykas mars-eksporteursaken, bliuwt yn twifel.
Op it stuit hawwe in protte testers dy't tagong krigen ta Grok3 wiken, en dyjingen dy't juster juster in pear oeren hifke, allegear punt oan in gewoane konklúzje: "Grok3 is goed, mar it is net better dan R1 of O1-Pro."

In kritysk perspektyf op "Fergeliking nvidia"
Yn 'e offisjeel presinteare pjinge tidens de frijlitting, waard grok3, om "fier foarút te wêzen yn' e chatbot-arena, mar de fertikale brûkte yn 'e 1400-1300-skoare, wêrtroch't it orizjinele ferskil yn' e test útsûnderlik sign útsûnderlik is yn dizze presintaasje.

Yn werklike model skoarde resultaten, is grok3 gewoan 1-2% foarút fan Deepseek R1 en GPT-4.0, dy't oerienkomt mei in protte brûkers yn praktyske testen dy't fûn "gjin merkber ferskil fûn". Grok3 is allinich oer de opfolgers fan 1% fan 1%.

Hoewol Grok3 hat heger skoard as alle op it stuit iepenbiere modellen, nimt in protte net serieus: nei alles is xai, earder krityk is om "skoare manipulaasje" yn 'e Grok2 ERA. Lykas de Leaderboard straffe-styl fermindere, fermindere de skoare sterk, liedende ynsiders om it ferskynsel fan it ferskynsels fan "hege skoare, mar leech fermogen."
Oft fia Leaderboard "Manipulation" of ûntwerp-trúkjes yn yllustraasjes, iepenbiere se xai en muskesoofens fan Xai en musk mei it begryp fan "it pak" liede yn modelfakbedriuwen. Musk betelle in steile priis foar dizze marzjes: Tidens de lansearring hat hy fan gebrûk fan 200.000 H100 GPU's (oanspraaklik "oer 100.000" tidens 'oer 100.000 en it berikken fan in totale training fan 200 miljoen oeren. Dit late guon om te leauwen dat it in oare wichtige boon fertsjintwurdiget foar de GPU-yndustry en de ynfloed fan DeepSeek te beskôgjen oer de sektor as "dwaas." Opmerklik, guon leauwe dat Sheer Computational Power de takomst sil wêze fan modeltraining.
Guon netizens fergelykje de konsumpsje fan 2000 H800 GPU's lykwols oer twa moannen om deepseek te produsearjen, berekkenje dat de eigentlike training fan 'e grokkearjende oplieding is 263 kear dat fan V3. It gat tusken Deepseek V3, dy't 1402 punten skoarde, en Grok3 is gewoan ûnder 100 punten. Nei de frijlitting fan dizze gegevens besefte in protte gau dat de titel fan Grok3 as de "'e sterkste" in dúdlike marginaal fan gruttere modellen is dy't sterker prestaasjes begon te sjen.

Sels mei "Hege skoare, mar leech fermogen," Grok2 hie grutte hoemannichten fan 'e gegeven fan hege kwaliteit fan' e X (Twitter) platfoarm om gebrûk te stypjen. Yn 'e training fan Grok3 tsjinkaam Xai natuerlik de "plafond" dat Openai op it stuit gesichten - it gebrek oan premium-trainingsplater eksposearret it marginale nut fan it model fan' e model fan 'e model.
De ûntwikkelders fan Grok3 en Musk binne wierskynlik dizze feiten dy't djip begripe en identifisearje, wat is de reden dy't musk is neamd op sosjale media dy't no ûnderfûn is "noch gewoan de beta" en dat "de folsleine ferzje sil wurde frijlitten yn 'e kommende moannen." Musk hat de rol fan 'e produktbehearder nommen, brûkte brûkers dy't feedback jouwe op ferskate problemen dy't tsjinkomme yn' e seksje Reaksjes. Hy kin de meast folge produktbehearder wêze.
Dochs ferhege Grok3's optreden fan Grok3 alarden foar de hope om te fertrouwen op 'massale berekkene grutte Microsoft-ynformaasje, Openai's GPT-4 GPT-4 AMARAMET-PARAMETERS, OAN TIEM TIEMEN DAT FAN GPT-3. Geroften suggerearje dat de parametergrutte fan GPT-4.5 noch grutter is.
As it modelparameter grutte soarget, binne de trainingskosten ek skyrocketing. Mei it oanwêzigens fan Grok3, sieders lykas 4,5 en oaren dy't wolle trochgean "Burninging Moding Performan te berikken, moat it plafond beskôgje dat no dúdlik is yn sicht en beskôgje hoe't jo it beskôgje moatte. Op dit stuit hie ilya sutskever, eardere haadwittenskipper yn Openai, earder ôfrûne desimber sein, "De foaroplieding dy't wy bekend binne," dy't op 'e nij binne yn petearen, freget om it wirklike paad te finen om grutte modellen te finen.

It eachpunt fan Ilya hat it alarm yn 'e sektor klonk. Hy komt presys foarút fan tagonklike nije gegevens, dy't liede ta in situaasje wêr't prestaasjes net trochgean kinne wurde ferbettere troch gegevensferwidering, it te ferljochtsjen, it te ferljochtsjen oan 'e útputting fan fossile brânstoffen. Hy joech oan dat "lykas oalje, minske-generearre ynhâld op it ynternet is in beheinde boarne." Yn 'e foarsizzingen fan Sutskever, de folgjende generaasje modellen, nei foar-training, sil "Tue Autonomy" en redenearje "en redenearje fan kapasiteit" ferlykber mei it minsklik brein. "
Oars as de hjoeddeistige foarôf oplaat modellen fan 'e hjoed dy't yn' t preminemint fertrouwe op jildbedrach (basearre op it earder learde AI-systemen kinne om problemen op te lossen en te fêstigjen op in manier te jaan oan it "tinken" fan it minsklik brein. In minske kin fûnemintele feardigens berikke yn in ûnderwerp mei gewoan basis profesjonele literatuer, wylst in AI-grut model berikt miljoenen gegevenspunten om gewoan de meast basale-nivo effektiviteit te berikken. Sels as de wurdearring is feroare, kinne dizze fûnemintele fragen net korrekt begrepen wurde, dat it model net echt is ferbettere, de basis, noch net yn 't begjin fan it artikel fertsjinwurdige in dúdlik foarbyld fan dit ferskynsels.

Konklúzje
Lykwols, bûten brute-krêft, as grok] yndie slagget yn te iepenbierjen dy't de yndustry is dy't "foarrjochte modellen har ein benaderje," it soe wichtige ymplikaasjes drage.
Miskien nei de frenzy omjouwing sakket de grok 3 stadichoan te tsjûgen, lykas Fei-Fei LI's foarbyld fan "Modellen fan hege prestaasjes op in spesifyk datums," it wirklike paad nei Agi ûntdekke.
Kabels foar kontrôle
Struktureare kabelsysteem
Netwurk & Gegevens, Fiber-optysk kabel, patch kabel, modules, facePlate
Apr.16TH-18e, 2024 Midden-East-Enerzjy yn Dubai
Apr.16000-18, 2024 securika yn Moskou
Mai.9e, 2024 nije produkten & Technologies lansearje evenemint yn Shanghai
Okt.22nd-25, 2024 befeiligings Sina yn Peking
NOV.19-20, 2024 ferbûn World KSA
Posttiid: FEB-19-2025