Foar BMS, BUS, Yndustrieel, Ynstrumintaasjekabel.

As it Spring Festival ta in ein komt, bliuwt de opwining om DeepSeek hinne sterk. De resinte feestdei markearre in wichtige gefoel fan konkurrinsje binnen de tech-yndustry, wêrby't in protte minsken dizze "meerval" besprekke en analysearje. Silicon Valley belibet in noch nea earder sjoen gefoel fan krisis: foarstanners fan iepen boarne uterje har miening opnij, en sels OpenAI evaluearret opnij oft har sletten boarnestrategy de bêste kar wie. It nije paradigma fan legere berekkeningskosten hat in kettingreaksje feroarsake ûnder chipgiganten lykas Nvidia, wat liedt ta rekordferliezen yn 'e merkwearde op ien dei yn 'e skiednis fan' e Amerikaanske oandielmerk, wylst oerheidsynstânsjes ûndersyk dogge nei de neilibjen fan 'e chips dy't brûkt wurde troch DeepSeek. Temidden fan mingde resinsjes fan DeepSeek yn it bûtenlân belibet it yn eigen lân in bûtengewoane groei. Nei de lansearring fan it R1-model hat de assosjearre app in tanimming fan ferkear sjoen, wat oanjout dat groei yn applikaasjesektoaren it algemiene AI-ekosysteem foarút sil driuwe. It positive aspekt is dat DeepSeek de applikaasjemooglikheden sil útwreidzje, wat suggerearret dat it fertrouwen op ChatGPT yn 'e takomst net sa djoer sil wêze. Dizze ferskowing is wjerspegele yn 'e resinte aktiviteiten fan OpenAI, ynklusyf it leverjen fan in redenearringsmodel mei de namme o3-mini oan fergese brûkers as reaksje op DeepSeek R1, lykas lettere upgrades dy't de gedachteketen fan o3-mini iepenbier makken. In protte brûkers út it bûtenlân hawwe DeepSeek tankber útsprutsen foar dizze ûntwikkelingen, hoewol dizze gedachteketen as in gearfetting tsjinnet.
Optimistysk sjoen is it dúdlik dat DeepSeek de binnenlânske spilers ferieniget. Mei syn fokus op it ferminderjen fan trainingskosten, komme ferskate upstream-chipfabrikanten, tuskenlizzende wolkproviders en tal fan startups aktyf by it ekosysteem, wêrtroch't de kosteneffisjinsje foar it brûken fan it DeepSeek-model ferbettere wurdt. Neffens de artikels fan DeepSeek fereasket de folsleine training fan it V3-model mar 2,788 miljoen H800 GPU-oeren, en it trainingsproses is tige stabyl. De MoE (Mixture of Experts) arsjitektuer is krúsjaal foar it ferminderjen fan pre-trainingskosten mei in faktor tsien yn ferliking mei Llama 3 mei 405 miljard parameters. Op it stuit is V3 it earste iepenbier erkende model dat sa'n hege sparsiteit yn MoE demonstrearret. Derneist wurket de MLA (Multi Layer Attention) synergistysk, benammen yn redenearringsaspekten. "Hoe sparser de MoE, hoe grutter de batchgrutte dy't nedich is tidens redenearring om de rekkenkrêft folslein te brûken, wêrby't de grutte fan 'e KVCache de wichtichste beheinde faktor is; de MLA ferminderet de KVCache-grutte signifikant," merkte in ûndersiker fan Chuanjing Technology op yn in analyze foar AI Technology Review. Oer it algemien leit it súkses fan DeepSeek yn 'e kombinaasje fan ferskate technologyen, net allinich ien. Ynsiders yn 'e sektor priizgje de technyske kapasiteiten fan it DeepSeek-team, en neame har treflikens yn parallelle training en operatoroptimalisaasje, wêrby't baanbrekkende resultaten berikt wurde troch elk detail te ferfine. De iepen boarne-oanpak fan DeepSeek stimulearret de algemiene ûntwikkeling fan grutte modellen fierder, en der wurdt ferwachte dat as ferlykbere modellen útwreide wurde nei ôfbyldings, fideo's en mear, dit de fraach yn 'e heule sektor signifikant sil stimulearje.
Kânsen foar redenearringstsjinsten fan tredden
Gegevens jouwe oan dat DeepSeek sûnt syn frijlitting 22,15 miljoen deistige aktive brûkers (DAU) binnen mar 21 dagen hat sammele, wêrmei't it 41,6% fan 'e brûkersbasis fan ChatGPT berikt en de 16,95 miljoen deistige aktive brûkers fan Doubao oertroffen hat, wêrtroch't it wrâldwiid de rapst groeiende applikaasje is, en de Apple App Store yn 157 lannen/regio's oanfiert. Wylst brûkers lykwols massaal kamen, hawwe cyberhackers de DeepSeek-app ûnferbidlik oanfallen, wêrtroch't de servers flink ûnder druk steane. Yndustryanalysten leauwe dat dit foar in part te tankjen is oan it feit dat DeepSeek kaarten ynset foar training, wylst it net genôch rekkenkrêft hat foar redenearring. In ynsider út 'e sektor fertelde AI Technology Review: "De faak foarkommende serverproblemen kinne maklik oplost wurde troch fergoedingen of finansiering yn rekken te bringen om mear masines te keapjen; úteinlik hinget it ôf fan 'e besluten fan DeepSeek." Dit is in ôfwaging tusken fokus op technology en produktisaasje. DeepSeek hat foar in grut part fertroud op kwantumkwantisaasje foar selsûnderhâld, en hat mar in bytsje eksterne finansiering krigen, wat resulteart yn in relatyf lege cashflowdruk en in suverdere technologyske omjouwing. Op it stuit, yn it ljocht fan 'e neamde problemen, roppe guon brûkers DeepSeek op sosjale media oan om gebrûksdrompels te ferheegjen of betelle funksjes yn te fieren om it brûkerskomfort te ferbetterjen. Derneist binne ûntwikkelders begûn mei it brûken fan 'e offisjele API of API's fan tredden foar optimalisaasje. It iepen platfoarm fan DeepSeek kundige lykwols koartlyn oan: "De hjoeddeiske serverboarnen binne krap, en it opladen fan API-tsjinsten is útsteld."
Dit iepenet sûnder mis mear kânsen foar tredde partijen yn 'e AI-ynfrastruktuersektor. Koartlyn hawwe ferskate binnenlânske en ynternasjonale wolkgiganten de model-API's fan DeepSeek lansearre - bûtenlânske giganten Microsoft en Amazon wiene ûnder de earsten dy't ein jannewaris meidienen. De binnenlânske lieder, Huawei Cloud, makke de earste stap, en brocht op 1 febrewaris de DeepSeek R1- en V3-redenearringstsjinsten út yn gearwurking mei Silicon-basearre Flow. Rapporten fan AI Technology Review jouwe oan dat de tsjinsten fan Silicon-basearre Flow in taname fan brûkers hawwe sjoen, wêrtroch't it platfoarm effektyf "crasht". De grutte trije techbedriuwen - BAT (Baidu, Alibaba, Tencent) en ByteDance - hawwe ek goedkeape, beheinde oanbiedingen útjûn fanôf 3 febrewaris, wat tinken docht oan 'e priisoarloggen fan wolkleveransiers fan ferline jier dy't ûntsteane troch de lansearring fan it V2-model fan DeepSeek, wêr't DeepSeek de "priisslachter" begon te wurden. De hektyske aksjes fan wolkleveransiers binne in wjerspegeling fan 'e eardere sterke bannen tusken Microsoft Azure en OpenAI, dêr't Microsoft yn 2019 in substansjele ynvestearring fan $1 miljard yn OpenAI die en de fruchten derfan helle nei de lansearring fan ChatGPT yn 2023. Dizze nauwe relaasje begon lykwols te ferfallen nei't Meta Llama iepen boarne makke, wêrtroch oare leveransiers bûten it Microsoft Azure-ekosysteem mei har grutte modellen konkurrearje koene. Yn dit gefal hat DeepSeek ChatGPT net allinich oertroffen yn termen fan produktwarmte, mar hat ek iepen boarne-modellen yntrodusearre nei de o1-útjefte, fergelykber mei de opwining om Llama's weroplibbing fan GPT-3 hinne.
Yn werklikheid posisjonearje wolkproviders harsels ek as ferkearspoarten foar AI-applikaasjes, wat betsjut dat ferdjipjen fan bannen mei ûntwikkelders oerset wurdt yn previntyf foardielen. Rapporten jouwe oan dat Baidu Smart Cloud mear as 15.000 klanten hie dy't it DeepSeek-model brûkten fia it Qianfan-platfoarm op 'e lansearingsdei fan it model. Derneist biede ferskate lytsere bedriuwen oplossingen oan, ynklusyf Silicon-based Flow, Luchen Technology, Chuanjing Technology, en ferskate AI Infra-providers dy't stipe hawwe lansearre foar DeepSeek-modellen. AI Technology Review hat leard dat hjoeddeistige optimalisaasjemooglikheden foar lokalisearre ynsetten fan DeepSeek benammen op twa gebieten besteane: ien is it optimalisearjen fan 'e sparsity-karakteristiken fan it MoE-model mei in mingde redenearringsbenadering om it MoE-model fan 671 miljard parameter lokaal yn te setten, wylst hybride GPU/CPU-ynferinsje brûkt wurdt. Derneist is de optimalisaasje fan MLA essensjeel. De twa modellen fan DeepSeek stean lykwols noch foar wat útdagings by it optimalisearjen fan ynsetten. "Fanwegen de grutte fan it model en de talleaze parameters is optimalisaasje yndie kompleks, benammen foar lokale ynset wêr't it berikken fan in optimale lykwicht tusken prestaasjes en kosten in útdaging wêze sil," sei in ûndersiker fan Chuanjing Technology. De wichtichste hindernis leit yn it oerwinnen fan de beheiningen fan ûnthâldkapasiteit. "Wy brûke in heterogene gearwurkingsbenadering om CPU's en oare berekkeningsboarnen folslein te brûken, wêrby't allinich de net-dielde dielen fan 'e sparse MoE-matrix op CPU/DRAM pleatst wurde foar ferwurking mei hege prestaasjes CPU-operators, wylst de tichte dielen op 'e GPU bliuwe," ferklearre hy fierder. Rapporten jouwe oan dat it iepen-boarne-framework KTransformers fan Chuanjing primêr ferskate strategyen en operators yn 'e orizjinele Transformers-ymplemintaasje ynjektearret fia in sjabloan, wêrtroch't de ynferinsjesnelheid signifikant ferbettere wurdt mei metoaden lykas CUDAGraph. DeepSeek hat kânsen makke foar dizze startups, om't groeifoardielen dúdlik wurde; in protte bedriuwen hawwe merkbere klantgroei rapportearre nei it lansearjen fan 'e DeepSeek API, en hawwe fragen krigen fan eardere kliïnten dy't op syk binne nei optimalisaasjes. Ynsiders út 'e sektor hawwe opmurken: "Yn it ferline wiene wat fêstige kliïntgroepen faak fêstbûn oan 'e standerdisearre tsjinsten fan gruttere bedriuwen, strak bûn troch har kostenfoardielen fanwegen skaal. Nei it foltôgjen fan 'e ynset fan DeepSeek-R1/V3 foar it Spring Festival krigen wy lykwols ynienen gearwurkingsfersyk fan ferskate bekende kliïnten, en sels earder sliepende kliïnten namen kontakt op om ús DeepSeek-tsjinsten yn te fieren." Op it stuit liket it derop dat DeepSeek de prestaasjes fan modellen hieltyd wichtiger makket, en mei bredere oannimmen fan grutte modellen sil dit de ûntwikkeling yn 'e AI Infra-yndustry signifikant beynfloedzje. As in model op DeepSeek-nivo lokaal tsjin lege kosten ynset wurde koe, soe it de digitale transformaasje-ynspanningen fan 'e oerheid en bedriuwen sterk helpe. D'r binne lykwols útdagings, om't guon kliïnten hege ferwachtingen hawwe kinne oangeande de mooglikheden fan grutte modellen, wêrtroch it dúdliker wurdt dat it lykwichtich meitsjen fan prestaasjes en kosten essensjeel wurdt by praktyske ynset.
Om te evaluearjen oft DeepSeek better is as ChatGPT, is it essensjeel om har wichtichste ferskillen, sterke punten en gebrûksgefallen te begripen. Hjir is in wiidweidige ferliking:
Eigenskip/Aspekt | Djippe Seek | ChatGPT |
---|---|---|
Eigendom | Untwikkele troch in Sineesk bedriuw | Untwikkele troch OpenAI |
Boarnemodel | Iepen boarne | Eigen |
Kosten | Fergees te brûken; goedkeapere API-tagongsopsjes | Abonnemint- of betelje-per-gebrûk-prizen |
Oanpassing | Heech oanpasber, wêrtroch brûkers it kinne oanpasse en derop bouwe | Beheinde oanpassing beskikber |
Prestaasjes yn spesifike taken | Blinkt út yn bepaalde gebieten lykas gegevensanalyse en ynformaasjeopheljen | Ferskaat oan krêft mei sterke prestaasjes yn kreatyf skriuwen en peteartaken |
Taalstipe | Sterke fokus op Sineeske taal en kultuer | Brede taalstipe mar sintraal op 'e FS |
Kosten fan training | Legere trainingskosten, optimalisearre foar effisjinsje | Hegere trainingskosten, dy't substansjele kompjûterboarnen fereaskje |
Fariaasje yn reaksje | Kin ferskillende antwurden biede, mooglik beynfloede troch geopolitike kontekst | Konsekwinte antwurden basearre op trainingsgegevens |
Doelgroep | Rjochte op ûntwikkelders en ûndersikers dy't fleksibiliteit wolle | Rjochte op algemiene brûkers dy't op syk binne nei petearmooglikheden |
Gebrûksgefallen | Effisjinter foar koadegeneraasje en rappe taken | Ideaal foar it generearjen fan tekst, it beantwurdzjen fan fragen en it fieren fan dialooch |
In kritysk perspektyf op "Nvidia fersteure"
Op it stuit, neist Huawei, binne ferskate húshâldlike chipfabrikanten lykas Moore Threads, Muxi, Biran Technology, en Tianxu Zhixin ek dwaande mei it oanpassen oan 'e twa modellen fan DeepSeek. In chipfabrikant fertelde AI Technology Review: "De struktuer fan DeepSeek lit ynnovaasje sjen, mar it bliuwt in LLM. Us oanpassing oan DeepSeek is benammen rjochte op redenearringsapplikaasjes, wêrtroch't de technyske ymplemintaasje frij ienfâldich en fluch is." De MoE-oanpak fereasket lykwols hegere easken op it mêd fan opslach en distribúsje, yn kombinaasje mei it garandearjen fan kompatibiliteit by it ynsetten mei húshâldlike chips, wat ferskate technyske útdagings presintearret dy't oplost wurde moatte tidens de oanpassing. "Op it stuit komt de húshâldlike rekkenkrêft net oerien mei Nvidia yn brûkberens en stabiliteit, wêrtroch't orizjinele fabryksdielname fereaske wurdt foar it ynstellen fan 'e softwareomjouwing, it oplossen fan problemen en it optimalisearjen fan basisprestaasjes," sei in yndustrypraktyker op basis fan praktyske ûnderfining. Tagelyk: "Fanwegen de grutte parameterskaal fan DeepSeek R1 makket húshâldlike rekkenkrêft mear knooppunten nedich foar parallellisaasje. Derneist rinne de húshâldlike hardwarespesifikaasjes noch wat efter; bygelyks kin de Huawei 910B op it stuit de FP8-ynferinsje dy't troch DeepSeek yntrodusearre is, net stypje." Ien fan 'e hichtepunten fan it DeepSeek V3-model is de ynfiering fan in FP8 mingd presyzje trainingsraamwurk, dat effektyf validearre is op in ekstreem grut model, wat in wichtige prestaasje markearret. Earder hawwe grutte spilers lykas Microsoft en Nvidia ferlykber wurk foarsteld, mar twifels bliuwe binnen de yndustry oer de mooglikheid. It wurdt begrepen dat, yn ferliking mei INT8, it primêre foardiel fan FP8 is dat kwantifikaasje nei training hast ferliesleaze presyzje kin berikke, wylst de ynferinsjesnelheid signifikant ferbettere wurdt. Yn ferliking mei FP16 kin FP8 oant twa kear fersnelling realisearje op Nvidia's H20 en mear as 1,5 kear fersnelling op 'e H100. It is opmerklik dat, om't diskusjes oer de trend fan húshâldlike rekkenkrêft plus húshâldlike modellen momentum krije, spekulaasjes oer oft Nvidia fersteurd wurde kin, en oft de CUDA-grêft omseild wurde kin, hieltyd faker foarkomme. Ien ûnbestriden feit is dat DeepSeek yndie in substansjele daling fan 'e merkwearde fan Nvidia feroarsake hat, mar dizze ferskowing ropt fragen op oer de yntegriteit fan hege-end rekkenkrêft fan Nvidia. Earder akseptearre ferhalen oangeande kapitaal-oandreaune komputasjonele opgarjen wurde útdage, mar it bliuwt lestich foar Nvidia om folslein ferfongen te wurden yn trainingsscenario's. Analyse fan DeepSeek's djippe gebrûk fan CUDA lit sjen dat fleksibiliteit - lykas it brûken fan SM foar kommunikaasje of it direkt manipulearjen fan netwurkkaarten - net mooglik is foar reguliere GPU's om te foldwaan. Yndustrystandpunten beklamje dat Nvidia's slotgracht it heule CUDA-ekosysteem omfettet ynstee fan allinich CUDA sels, en de PTX (Parallel Thread Execution) ynstruksjes dy't DeepSeek brûkt, binne noch altyd ûnderdiel fan it CUDA-ekosysteem. "Op koarte termyn kin de komputasjonele krêft fan Nvidia net omslein wurde - dit is foaral dúdlik yn training; it ynsetten fan húshâldlike kaarten foar redenearring sil lykwols relatyf makliker wêze, dus foarútgong sil wierskynlik rapper wêze. De oanpassing fan húshâldlike kaarten rjochtet him primêr op ynferinsje; nimmen is der noch yn slagge om in model fan DeepSeek's prestaasjes op húshâldlike kaarten op skaal te trainen," sei in yndustryanalist tsjin AI Technology Review. Oer it algemien binne de omstannichheden, fanút in ynferinsjeperspektyf, bemoedigjend foar húshâldlike grutte modelchips. De kânsen foar húshâldlike chipfabrikanten binnen it gebiet fan ynferinsje binne dúdliker fanwegen de oermjittich hege easken fan training, dy't de yngong hinderje. Analysten stelle dat it gewoan brûken fan húshâldlike ynferinsjekaarten genôch is; as it nedich is, is it oanskaffen fan in ekstra masine mooglik, wylst trainingsmodellen unike útdagings mei him bringe - it behearen fan in ferhege oantal masines kin lestich wurde, en hegere flatersifers kinne in negative ynfloed hawwe op trainingsresultaten. Training hat ek spesifike easken foar klusterskaal, wylst de easken oan klusters foar ynferinsje net sa strang binne, wêrtroch't de GPU-easken ferminderje. Op it stuit oertreffe de prestaasjes fan Nvidia's ienige H20-kaart dy fan Huawei of Cambrian net; syn sterkte leit yn klustering. Op basis fan 'e algemiene ynfloed op' e merk foar rekkenkrêft, merkte de oprjochter fan Luchen Technology, You Yang, yn in ynterview mei AI Technology Review op: "DeepSeek kin tydlik de oprjochting en ferhier fan ultra-grutte trainingsklusters foar rekkenkrêft ûndermynje. Op 'e lange termyn, troch de kosten ferbûn mei training, redenearring en applikaasjes fan grutte modellen signifikant te ferminderjen, sil de fraach nei de merk wierskynlik tanimme. Folgjende iteraasjes fan AI basearre hjirop sille dêrom kontinu oanhâldende fraach yn 'e merk foar rekkenkrêft oandriuwe." Derneist is "De ferhege fraach fan DeepSeek nei redenearrings- en fynôfstimmingstsjinsten mear kompatibel mei it húshâldlike berekkeningslânskip, dêr't lokale kapasiteiten relatyf swak binne, wat helpt om fergriemerij fan idle boarnen nei it oprjochtsjen fan klusters te ferminderjen; dit skept libbensfetbere kânsen foar fabrikanten op ferskate nivo's fan it húshâldlike berekkeningsekosysteem." Luchen Technology hat gearwurke mei Huawei Cloud om de DeepSeek R1-searje redenearrings-API's en wolkôfbyldingstsjinsten te lansearjen basearre op húshâldlike berekkeningskrêft. You Yang útdrukte optimisme oer de takomst: "DeepSeek wekket fertrouwen yn húshâldlik produsearre oplossingen, en stimulearret grutter entûsjasme en ynvestearring yn húshâldlike berekkeningsmooglikheden yn 'e takomst."

Konklúzje
Oft DeepSeek "better" is as ChatGPT hinget ôf fan 'e spesifike behoeften en doelen fan 'e brûker. Foar taken dy't fleksibiliteit, lege kosten en oanpassing nedich binne, kin DeepSeek better wêze. Foar kreatyf skriuwen, algemien ûndersyk en brûkerfreonlike petearynterfaces kin ChatGPT it foartou nimme. Elk ark tsjinnet ferskillende doelen, dus de kar sil sterk ôfhingje fan 'e kontekst wêryn't it brûkt wurdt.
Kontrôlekabels
Strukturearre kabelsysteem
Netwurk en gegevens, glêstriedkabel, patchkabel, modules, frontplaat
16-18 april 2024 Midden-Easten-Enerzjy yn Dubai
16-18 april 2024 Securika yn Moskou
9 maaie 2024 LANSEARJINGSEVENEMINT FAN NIJE PRODUKTEN EN TECHNOLOGYEN yn Shanghai
22-25 oktober 2024 FEILIGHEID SINA yn Peking
19-20 novimber 2024 FERBUNNE WRÂLD KSA
Pleatsingstiid: 10 febrewaris 2025