Deepseek: The Disruptive One revolutionering van het AI -landschap

AIPU Waton Group

Invoering

Aanhoudende angst bij concurrerende grote modellen, cloudproviders die strijden om marktaandeel en hardwerkende chipfabrikanten - het diepe effect blijft bestaan.

Terwijl het lentefestival ten einde loopt, blijft de opwinding rond Deepseek sterk. De recente vakantie benadrukte een belangrijk gevoel van concurrentie binnen de technische industrie, waarbij velen deze 'meerval' bespreken en analyseren. Silicon Valley ervaart een ongekend gevoel van crisis: voorstanders van open-source uiten hun mening opnieuw, en zelfs Openai evalueert opnieuw of de strategie voor gesloten source de beste keuze was. Het nieuwe paradigma van lagere rekenkosten heeft een kettingreactie veroorzaakt onder chipreuzen zoals Nvidia, wat leidt tot registratie van markt voor eendaagse markt voor marktwaarde in de geschiedenis van de Amerikaanse aandelenmarkt, terwijl overheidsinstanties de naleving van de chips die door Deepseek worden gebruikt, onderzoeken. Temidden van gemengde beoordelingen van Deepseek in het buitenland, in eigen land, ervaart het buitengewone groei. Na de lancering van het R1 -model heeft de bijbehorende app een toename van het verkeer gezien, wat aangeeft dat de groei van de toepassingssectoren het algehele AI -ecosysteem vooruit zal brengen. Het positieve aspect is dat Deepseek de toepassingsmogelijkheden zal verbreden, wat suggereert dat vertrouwen op Chatgpt in de toekomst niet zo duur zal zijn. Deze verschuiving is weerspiegeld in de recente activiteiten van Openai, inclusief het aanbieden van een redeneermodel genaamd O3-Mini aan vrije gebruikers in reactie op Deepseek R1, evenals daaropvolgende upgrades die de gedachte-keten van O3-Mini Public maakten. Veel buitenlandse gebruikers hebben dankbaar voor deze ontwikkelingen dankbaar voor deze ontwikkelingen, hoewel deze gedachte -keten als een samenvatting dient.

Optimistisch is het duidelijk dat Deepseek binnenlandse spelers verenigt. Met zijn focus op het verlagen van de trainingskosten, zijn verschillende stroomopwaartse chipfabrikanten, tussenliggende cloudproviders en talloze startups actief lid van het ecosysteem, waardoor de kostenefficiëntie voor het gebruik van het DeepSeek -model wordt verbeterd. Volgens de kranten van Deepseek vereist de volledige training van het V3 -model slechts 2,788 miljoen H800 GPU -uren, en het trainingsproces is zeer stabiel. De MOE (mengsel van experts) architectuur is cruciaal voor het verlagen van de pre-trainingskosten met een factor tien vergeleken met LLAMA 3 met 405 miljard parameters. Momenteel is V3 het eerste publiekelijk erkende model dat zo'n hoge sparsiteit in MOE aantoont. Bovendien werkt de MLA (aandacht van meerdere lagen) synergetisch, met name in redenerende aspecten. "Hoe spaarder de MOE, hoe groter de batchgrootte die nodig is tijdens de redenering om de rekenkracht volledig te gebruiken, waarbij de grootte van de KVCache de belangrijkste beperkende factor is; de MLA vermindert de KVCache -grootte aanzienlijk," merkte een onderzoeker uit van chuanjingtechnologie in een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse van een analyse voor AI -technologie. Over het algemeen ligt het succes van Deepseek in de combinatie van verschillende technologieën, niet slechts een enkele. Insiders in de industrie prijzen de technische mogelijkheden van het Deepseek -team en merken hun uitmuntendheid op in parallelle training en operatoroptimalisatie, waardoor baanbrekende resultaten worden bereikt door elk detail te verfijnen. De open-source-aanpak van Deepseek voedt de algehele ontwikkeling van grote modellen verder, en er wordt verwacht dat als vergelijkbare modellen zich uitbreiden naar afbeeldingen, video's en meer, dit de vraag in de industrie aanzienlijk zal stimuleren.

Kansen voor redeneerdiensten van derden

Gegevens geven aan dat Sinds de release, Deepseek heeft binnen slechts 21 dagen 22,15 miljoen dagelijkse actieve gebruikers (DAU) opgebouwd, waardoor 41,6% van het gebruikersbestand van Chatgpt wordt bereikt en 16,95 miljoen dagelijkse actieve gebruikers van Doubao wordt overtroffen, waardoor de snelst groeiende toepassing wereldwijd wordt, de Apple App Store in 157 landen/regionen. Hoewel gebruikers in groten getale stroomden, hebben cyberhackers meedogenloos de Deepseek -app aangevallen, wat een aanzienlijke druk op zijn servers veroorzaakt. Industrieanalisten zijn van mening dat dit gedeeltelijk te wijten is aan deepseek die kaarten inzet voor training en tegelijkertijd voldoende rekenkracht voor redeneren missen. Een insider in de industrie informeerde AI Technology Review: "De frequente serverproblemen kunnen eenvoudig worden opgelost door kosten of financiering op te laden om meer machines te kopen; uiteindelijk hangt dit af van de beslissingen van Deepseek." Dit presenteert een afweging in het focussen op technologie versus productisatie. Deepseek heeft grotendeels vertrouwd op kwantumkwantisatie voor zelfvoorziening, die weinig externe financiering heeft ontvangen, wat resulteerde in een relatief lage kasstroomdruk en een zuiverdere technologische omgeving. Momenteel, in het licht van de bovengenoemde problemen, dringen sommige gebruikers aan op deepseek op sociale media om gebruiksdrempels te verhogen of betaalde functies te introduceren om het comfort van de gebruikers te verbeteren. Bovendien zijn ontwikkelaars begonnen met het gebruik van de officiële API of externe API's voor optimalisatie. Het open platform van Deepseek heeft echter onlangs aangekondigd: "Huidige serverbronnen zijn schaars en de API -servicevolhadden zijn opgeschort."

 

Dit opent ongetwijfeld meer kansen voor externe leveranciers in de AI-infrastructuursector. Onlangs hebben talloze binnenlandse en internationale cloudreuzen de Deepseek's model -API's gelanceerd - Overseas Giants Microsoft en Amazon waren een van de eersten die eind januari deelnamen. De binnenlandse leider, Huawei Cloud, maakte de eerste stap, die Deepseek R1- en V3-redeneerdiensten vrijgeven in samenwerking met siliconengebaseerde stroom op 1. Rapporten van AI Technology Review geven aan dat de diensten van siliconen gebaseerde Flow een toestroom van gebruikers hebben gezien, die effectief "het platform" hebben "het platform". De Big Three Tech-bedrijven-Bat (Baidu, Alibaba, Tencent) en Bytedance-gaven vanaf 3 februari ook goedkope, beperkte tijd aan, die doen denken aan de cloud-leverancier Prijsoorlogen van vorig jaar ontstoken door Deepseek's V2-modellancering, waar Deepseek begon te worden nagesynchroniseerd de "prijsbelever". De hectische acties van cloud-leveranciers weerspiegelen de eerdere sterke banden tussen Microsoft Azure en Openai, waar Microsoft in 2019 een aanzienlijke investering van $ 1 miljard heeft gedaan in OpenAI en de voordelen van de lancering van Chatgpt in 2023 in 2023 hebben geëapst. Deze nauwe relatie begon echter te raden na meta open-sourced llama, buiten de MicroSoft Azystem van de MicroSoft Azystems om te concurreren met hun grote modellen. In dit geval heeft Deepseek niet alleen Chatgpt overtroffen in termen van productwarmte, maar heeft hij ook open-source modellen geïntroduceerd na de O1-release, vergelijkbaar met de opwinding rond Lama's revival van GPT-3.

 

In werkelijkheid positioneren cloudproviders zich ook als verkeersgateways voor AI -applicaties, wat betekent dat verdieping van banden met ontwikkelaars zich vertaalt in preventieve voordelen. Rapporten geven aan dat Baidu Smart Cloud meer dan 15.000 klanten had die het DeepSeek -model gebruikten via het Qianfan -platform op de lanceringsdag van het model. Bovendien bieden verschillende kleinere bedrijven oplossingen, waaronder siliconengebaseerde flow, luchen-technologie, chuanjing-technologie en verschillende AI-infra-providers die ondersteuning hebben gelanceerd voor Deepseek-modellen. AI Technology Review heeft geleerd dat de huidige optimalisatiemogelijkheden voor gelokaliseerde implementaties van Deepseek voornamelijk in twee gebieden bestaan: één is optimaliseerd voor de sparsity -eigenschappen van het MOE -model met behulp van een gemengde redeneerbenadering om het 671 miljard parameter MOE -model lokaal te implementeren, terwijl het gebruik van hybride GPU/CPU -inferentie. Bovendien is de optimalisatie van MLA van vitaal belang. De twee modellen van Deepseek staan ​​echter nog steeds voor een aantal uitdagingen bij de implementatie -optimalisatie. "Vanwege de grootte van het model en talloze parameters is optimalisatie inderdaad complex, met name voor lokale implementaties waarbij het bereiken van een optimaal evenwicht tussen prestaties en kosten een uitdaging zal zijn", aldus een onderzoeker van Chuanjing -technologie. De belangrijkste hindernis ligt in het overwinnen van geheugencapaciteitslimieten. "We hanteren een heterogene samenwerkingsbenadering om CPU's en andere rekenbronnen volledig te gebruiken, waarbij we alleen de niet-gescheiden delen van de schaarse MOE-matrix op CPU/DRAM plaatsen voor verwerking met behulp van krachtige CPU-operatoren, terwijl de dichte delen op de GPU blijven," legde hij verder uit. Rapporten geven aan dat het open-source framework van Chuanjing Ktransformers voornamelijk verschillende strategieën en operators in de originele transformatoren-implementatie door een sjabloon injecteert, waardoor de inferentiesnelheid aanzienlijk wordt verbeterd met behulp van methoden zoals Cudagraph. Deepseek heeft kansen gecreëerd voor deze startups, omdat groeimeters voordelen duidelijk worden; Veel bedrijven hebben een merkbare groei van de klant gemeld na het lanceren van de Deepseek API, en ontvingen vragen van eerdere klanten die op zoek zijn naar optimalisaties. Insiders uit de industrie hebben opgemerkt: "In het verleden werden enigszins gevestigde klantgroepen vaak opgesloten in de gestandaardiseerde diensten van grotere bedrijven, die nauw verbonden zijn door hun kostenvoordelen vanwege schaal. Echter, na het voltooien van de implementatie van Deepseek-R1/V3 vóór het Spring Festival, ontvingen we plotseling samenwerkingsverzoeken van verschillende bekende klanten en zelfs Dormant-cliënten in geïntroduceerde contact met onze Deeps-cliënten." Momenteel lijkt het erop dat Deepseek modelinferentieprestaties steeds kritischer maakt, en met een bredere acceptatie van grote modellen zal dit de ontwikkeling in de AI Infra -industrie aanzienlijk blijven beïnvloeden. Als een diepteekniveau-model lokaal tegen lage kosten zou kunnen worden ingezet, zou dit de inspanningen van de overheid en digitale transformatie aanzienlijk helpen. De uitdagingen blijven echter bestaan, omdat sommige klanten hoge verwachtingen kunnen hebben met betrekking tot grote modelmogelijkheden, waardoor het duidelijker wordt dat het balanceren van prestaties en kosten van vitaal belang wordt in de praktische inzet. 

Om te evalueren of Deepseek beter is dan chatgpt, is het essentieel om hun belangrijkste verschillen, sterke punten en use cases te begrijpen. Hier is een uitgebreide vergelijking:

Functie/aspect Diepeek Chatgpt
Eigendom Ontwikkeld door een Chinees bedrijf Ontwikkeld door Openai
Bronmodel Open-source Eigendom
Kosten Vrij te gebruiken; goedkopere API -toegangsopties Abonnement of pay-per-use prijzen
Aanpassing Zeer aanpasbaar, zodat gebruikers kunnen aanpassen en voortbouwen Beperkte aanpassing beschikbaar
Prestaties in specifieke taken Blinkt uit op bepaalde gebieden zoals data -analyse en het ophalen van informatie Veelzijdig met sterke prestaties in creatief schrijven en conversatietaken
Taalondersteuning Sterke focus op Chinese taal en cultuur Brede taalondersteuning maar in de VS gericht
Trainingskosten Lagere trainingskosten, geoptimaliseerd voor efficiëntie Hogere trainingskosten, die substantiële rekenbronnen vereisen
Reactie variatie Kunnen verschillende antwoorden bieden, mogelijk beïnvloed door geopolitieke context Consistente antwoorden op basis van trainingsgegevens
Doelgroep Gericht op ontwikkelaars en onderzoekers die flexibiliteit willen Gericht op algemene gebruikers die op zoek zijn naar conversatiemogelijkheden
Use cases Efficiënter voor het genereren van codes en snelle taken Ideaal voor het genereren van tekst, het beantwoorden van vragen en het aangaan van dialoog

Een kritisch perspectief op "nvidia verstoren"

Op dit moment, afgezien van Huawei, passen verschillende binnenlandse chipfabrikanten zoals Moore -threads, Muxi, Biran -technologie en Tianxu Zhixin ook aan aan Deepseek's twee modellen. Een chipfabrikant vertelde AI Technology Review: "Deepseek's structuur toont innovatie, maar het blijft een LLM. Onze aanpassing aan Deepseek is voornamelijk gericht op redeneringstoepassingen, waardoor technische implementatie vrij eenvoudig en snel wordt." De MOE -aanpak vereist echter hogere eisen in termen van opslag en distributie, in combinatie met het waarborgen van compatibiliteit bij het implementeren van binnenlandse chips, met tal van technische uitdagingen die tijdens de aanpassing oplossing moeten zijn. "Momenteel komt binnenlandse rekenkracht niet overeen met NVIDIA in bruikbaarheid en stabiliteit, waarvoor originele fabrieksparticipatie vereist is voor softwareomgeving, probleemoplossing en fundamentele prestatie -optimalisatie," zei een industriële beoefenaar op basis van praktische ervaring. Tegelijkertijd, "vanwege de grote parameterschaal van Deepseek R1, vereist binnenlandse rekenkracht meer knooppunten voor parallellisatie. Bovendien zijn de binnenlandse hardwarespecificaties nog steeds enigszins achter; bijvoorbeeld de Huawei 910B kan momenteel de FP8 -gevolgtrekking niet ondersteunen die door DeepseEK wordt geïntroduceerd." Een van de hoogtepunten van het Deepseek V3 -model is de introductie van een FP8 gemengd precisietrainingskader, dat effectief is gevalideerd op een extreem groot model, wat een significante prestatie markeert. Eerder stelden grote spelers zoals Microsoft en Nvidia gerelateerd werk voor, maar twijfels hangen in de industrie met betrekking tot haalbaarheid. Het is wel verstaan ​​dat het primaire voordeel van FP8 in vergelijking met INT8 is dat kwantisatie na de training bijna verliesloze precisie kan bereiken, terwijl de inferentiesnelheid aanzienlijk wordt verbeterd. Bij vergelijking met FP16 kan FP8 tot twee keer versnelling realiseren op Nvidia's H20 en meer dan 1,5 keer versnelling op de H100. Met name, aangezien discussies rond de trend van binnenlandse rekenkracht plus binnenlandse modellen momentum krijgen, wordt speculatie over de vraag of nvidia kan worden verstoord en of de CUDA -gracht kan worden omzeild, steeds vaker voorkomend. Een onmiskenbaar feit is dat Deepseek inderdaad een substantiële daling van de marktwaarde van Nvidia heeft veroorzaakt, maar deze verschuiving roept vragen op met betrekking tot de high-end computational power-integriteit van Nvidia. Eerder geaccepteerde verhalen met betrekking tot kapitaalgestuurde computationele accumulatie worden aangevochten, maar het blijft moeilijk voor Nvidia om volledig te worden vervangen in trainingsscenario's. Analyse van Deepseek's diepe gebruik van CUDA toont aan dat flexibiliteit - zoals het gebruik van SM voor communicatie of direct manipuleren van netwerkkaarten - niet haalbaar is voor reguliere GPU's. De standpunten van de industrie benadrukken dat de gracht van Nvidia het hele CUDA -ecosysteem omvat in plaats van alleen CUDA zelf, en de PTX (parallelle thread -uitvoering) instructies die Deepseek gebruikt, maken nog steeds deel uit van het CUDA -ecosysteem. "Op de korte termijn kan de rekenkracht van NVIDIA niet worden omzeild - dit is vooral duidelijk in de training; het inzetten van huishoudelijke kaarten voor redenering zal echter relatief eenvoudiger zijn, dus de vooruitgang zal waarschijnlijk sneller zijn. De aanpassing van huiskaarten is vooral gericht op conclusie; niemand is er nog in geslaagd om een ​​model van Deepseek's prestaties op de schaal op schaal te trainen," een industrieanalyse die AI -technologiebeoordeling heeft opgemerkt. Over het algemeen zijn de omstandigheden vanuit het oogpunt van een gevolgtrekking bemoedigend voor binnenlandse grote modelchips. De mogelijkheden voor binnenlandse chipfabrikanten binnen het rijk van de gevolgtrekking zijn duidelijker vanwege de overdreven hoge vereisten van de training, die de toegang belemmeren. Analisten beweren dat het eenvoudig benutten van binnenlandse inferentiekaarten voldoende is; Indien nodig is het verwerven van een extra machine mogelijk, terwijl trainingsmodellen unieke uitdagingen opleveren - het beheren van een verhoogd aantal machines kan laster worden en hogere foutenpercentages kunnen een negatieve invloed hebben op de trainingsresultaten. Training heeft ook specifieke eisen van de clusterschaal, terwijl de eisen aan clusters voor inferentie niet zo streng zijn, waardoor de GPU -vereisten worden vergemakkelijkt. Momenteel overtreft de prestaties van de enkele H20 -kaart van Nvidia die van Huawei of Cambrian niet; De kracht ervan ligt in clustering. Based on the overall impact on the computational power market, the founder of Luchen Technology, You Yang, noted in an interview with AI Technology Review, "DeepSeek may temporarily undermine the establishment and rental of ultra-large training computational clusters. In the long run, by significantly reducing the costs associated with large model training, reasoning, and applications, market demand is likely to surge. Subsequent iterations of AI based on this will therefore continually drive aanhoudende vraag in de markt voor computationele energie. " Bovendien is "Deepseek's verhoogde vraag naar redenering en verfijningsdiensten meer compatibel met het binnenlandse rekenlandschap, waar lokale capaciteiten relatief zwak zijn, waardoor het afval van inactieve middelen na de cluster wordt beperken; dit creëert levensvatbare kansen voor fabrikanten op verschillende niveaus van het binnenlandse computationele ecosysteem." Luchen Technology heeft samengewerkt met Huawei Cloud om de Deepseek R1 -serie redenering van API's en cloud -beeldvormingsservices te lanceren op basis van binnenlandse rekenkracht. U Yang uitte optimisme over de toekomst: "Deepseek wekt het vertrouwen in in het binnenland geproduceerde oplossingen, waardoor meer enthousiasme en investeringen in binnenlandse rekenmogelijkheden worden aangemoedigd."

微信图片 _20240614024031.JPG1

Conclusie

Of Deepseek "beter" is dan chatgpt hangt af van de specifieke behoeften en doelstellingen van de gebruiker. Voor taken die flexibiliteit, lage kosten en aanpassing nodig hebben, kan Deepseek superieur zijn. Voor creatief schrijven, algemeen onderzoek en gebruikersvriendelijke conversatie-interfaces kan Chatgpt het voortouw nemen. Elke tool dient verschillende doeleinden, dus de keuze hangt sterk af van de context waarin ze worden gebruikt.

Vind ELV -kabeloplossing

Controlekabels

Voor BMS, bus, industriële, instrumentatiekabel.

Gestructureerd bekabelingssysteem

Netwerk en gegevens, vezeloptische kabel, patchkoord, modules, voorplaat

2024 Exhibitions & Events Review

16 april-18e, 2024 Midden-oosten-energie in Dubai

16 april-18e, 2024 Securika in Moskou

MEI. 9, 2024 Nieuwe producten en technologieën Lanceringsevenement in Shanghai

22 oktober-25, 2024 Beveiliging China in Beijing

19-2020, 2024 Connected World KSA


Posttijd: februari-2025