Voor BMS-, BUS-, industriële en instrumentatiekabels.

Nu het Lentefestival ten einde loopt, blijft de opwinding rond DeepSeek groot. De recente feestdag benadrukte een aanzienlijke concurrentiestrijd binnen de techsector, waarbij velen deze "catfish" bespraken en analyseerden. Silicon Valley ervaart een ongekende crisis: voorstanders van open source laten weer van zich horen en zelfs OpenAI heroverweegt of hun closed-sourcestrategie de beste keuze was. Het nieuwe paradigma van lagere rekenkosten heeft een kettingreactie teweeggebracht bij chipgiganten zoals Nvidia, wat heeft geleid tot recordverliezen op één dag in de Amerikaanse aandelenmarktgeschiedenis, terwijl overheidsinstanties de naleving van de door DeepSeek gebruikte chips onderzoeken. Te midden van gemengde reacties op DeepSeek in het buitenland, maakt het in eigen land een buitengewone groei door. Na de lancering van het R1-model heeft de bijbehorende app een piek in het verkeer gezien, wat erop wijst dat groei in applicatiesectoren het AI-ecosysteem als geheel vooruit zal helpen. Het positieve aspect is dat DeepSeek de applicatiemogelijkheden zal verbreden, wat suggereert dat het gebruik van ChatGPT in de toekomst minder duur zal zijn. Deze verschuiving is terug te zien in de recente activiteiten van OpenAI, waaronder de beschikbaarheid van een redeneermodel genaamd o3-mini voor gratis gebruikers als reactie op DeepSeek R1, evenals daaropvolgende upgrades die de denkketen van o3-mini openbaar maakten. Veel buitenlandse gebruikers uitten hun dankbaarheid aan DeepSeek voor deze ontwikkelingen, hoewel deze denkketen slechts een samenvatting vormt.
Optimistisch gezien is het duidelijk dat DeepSeek binnenlandse spelers verenigt. Met zijn focus op het verlagen van trainingskosten sluiten diverse upstream chipfabrikanten, intermediaire cloudproviders en talloze startups zich actief aan bij het ecosysteem, waardoor de kostenefficiëntie van het gebruik van het DeepSeek-model wordt verbeterd. Volgens de papers van DeepSeek vereist de volledige training van het V3-model slechts 2,788 miljoen H800 GPU-uren en is het trainingsproces zeer stabiel. De MoE-architectuur (Mixture of Experts) is cruciaal om de pre-trainingskosten met een factor tien te verlagen ten opzichte van Llama 3 met 405 miljard parameters. Momenteel is V3 het eerste publiekelijk erkende model dat een dergelijke hoge schaarste in MoE demonstreert. Bovendien werkt de MLA (Multi Layer Attention) synergetisch, met name op het gebied van redenering. "Hoe kleiner de MoE, hoe groter de batchgrootte die nodig is tijdens het redeneren om de rekenkracht volledig te benutten, waarbij de grootte van de KVCache de belangrijkste beperkende factor is; de MLA verkleint de KVCache-grootte aanzienlijk", merkte een onderzoeker van Chuanjing Technology op in een analyse voor AI Technology Review. Het succes van DeepSeek ligt over het algemeen in de combinatie van verschillende technologieën, niet slechts één. Insiders in de branche prijzen de technische capaciteiten van het DeepSeek-team en wijzen op hun uitmuntendheid in parallelle training en operatoroptimalisatie, waarmee baanbrekende resultaten worden behaald door elk detail te verfijnen. De open-sourcebenadering van DeepSeek stimuleert de algehele ontwikkeling van grote modellen verder, en de verwachting is dat als vergelijkbare modellen worden uitgebreid naar afbeeldingen, video's en meer, dit de vraag in de branche aanzienlijk zal stimuleren.
Kansen voor redeneerdiensten van derden
Gegevens tonen aan dat DeepSeek sinds de release in slechts 21 dagen 22,15 miljoen dagelijkse actieve gebruikers (DAU) heeft verzameld, goed voor 41,6% van ChatGPT's gebruikersbestand en meer dan 16,95 miljoen dagelijkse actieve gebruikers van Doubao. Daarmee is DeepSeek wereldwijd de snelstgroeiende applicatie, die in 157 landen/regio's bovenaan de Apple App Store staat. Terwijl gebruikers massaal toestroomden, hebben cyberhackers de DeepSeek-app echter meedogenloos aangevallen, wat de servers aanzienlijk belastte. Analisten denken dat dit deels te wijten is aan het feit dat DeepSeek kaarten inzet voor training, terwijl het onvoldoende rekenkracht heeft om te redeneren. Een insider in de branche vertelde AI Technology Review: "De frequente serverproblemen kunnen eenvoudig worden opgelost door kosten in rekening te brengen of door financiering te verstrekken voor de aanschaf van meer machines; uiteindelijk hangt het af van de beslissingen van DeepSeek." Dit is een afweging tussen de focus op technologie en productisering. DeepSeek is voor zijn zelfvoorziening grotendeels afhankelijk geweest van kwantumkwantificering, omdat het weinig externe financiering heeft ontvangen. Dit heeft geresulteerd in een relatief lage cashflowdruk en een zuiverdere technologische omgeving. Gezien de bovengenoemde problemen dringen sommige gebruikers er momenteel op sociale media bij DeepSeek op aan om de gebruiksdrempels te verhogen of betaalde functies te introduceren om het gebruikerscomfort te verbeteren. Daarnaast zijn ontwikkelaars begonnen met het gebruik van de officiële API of API's van derden voor optimalisatie. Het open platform van DeepSeek kondigde echter onlangs aan: "De huidige serverbronnen zijn schaars en de kosten voor API-diensten zijn opgeschort."
Dit opent ongetwijfeld meer mogelijkheden voor externe leveranciers in de AI-infrastructuursector. Onlangs hebben talloze binnenlandse en internationale cloudgiganten de model-API's van DeepSeek gelanceerd – buitenlandse giganten Microsoft en Amazon behoorden tot de eersten die zich eind januari aansloten. De binnenlandse marktleider, Huawei Cloud, zette de eerste stap door op 1 februari DeepSeek R1 en V3-redeneringsdiensten te lanceren in samenwerking met het op Silicon gebaseerde Flow. Rapporten van AI Technology Review geven aan dat de op Silicon gebaseerde Flow-diensten een toestroom van gebruikers hebben gezien, waardoor het platform in feite is "gecrasht". De drie grote techbedrijven – BAT (Baidu, Alibaba, Tencent) en ByteDance – boden vanaf 3 februari ook voordelige, tijdelijke aanbiedingen aan, die doen denken aan de prijsoorlog tussen cloudleveranciers vorig jaar, die ontbrandde door de lancering van DeepSeeks V2-model, waarbij DeepSeek de bijnaam "prijsslager" kreeg. De paniekerige acties van cloudleveranciers weerspiegelen de eerdere sterke banden tussen Microsoft Azure en OpenAI, waar Microsoft in 2019 een aanzienlijke investering van $ 1 miljard in OpenAI deed en de vruchten plukte na de lancering van ChatGPT in 2023. Deze nauwe relatie begon echter te slijten nadat Meta Llama open source maakte, waardoor andere leveranciers buiten het Microsoft Azure-ecosysteem konden concurreren met hun grote modellen. In dit geval heeft DeepSeek ChatGPT niet alleen ingehaald qua producthitte, maar ook open-sourcemodellen geïntroduceerd na de release van O1, vergelijkbaar met de opwinding rond Llama's heropleving van GPT-3.
In werkelijkheid positioneren cloudproviders zich ook als verkeersgateways voor AI-toepassingen, wat betekent dat het verdiepen van de banden met ontwikkelaars zich vertaalt in preventieve voordelen. Rapporten geven aan dat Baidu Smart Cloud op de lanceringsdag meer dan 15.000 klanten had die het DeepSeek-model gebruikten via het Qianfan-platform. Daarnaast bieden verschillende kleinere bedrijven oplossingen aan, waaronder Silicon-based Flow, Luchen Technology, Chuanjing Technology en diverse AI Infra-providers die ondersteuning voor DeepSeek-modellen hebben gelanceerd. AI Technology Review heeft vastgesteld dat er momenteel voornamelijk optimalisatiemogelijkheden zijn voor gelokaliseerde implementaties van DeepSeek op twee gebieden: ten eerste is er optimalisatie voor de sparsity-kenmerken van het MoE-model met behulp van een mixed reasoning-benadering om het MoE-model met 671 miljard parameters lokaal te implementeren, terwijl hybride GPU/CPU-inferentie wordt gebruikt. Daarnaast is de optimalisatie van MLA essentieel. De twee modellen van DeepSeek staan echter nog steeds voor uitdagingen bij de optimalisatie van de implementatie. "Vanwege de omvang van het model en de vele parameters is optimalisatie inderdaad complex, met name voor lokale implementaties waar het bereiken van een optimale balans tussen prestaties en kosten een uitdaging zal zijn", aldus een onderzoeker van Chuanjing Technology. De belangrijkste hindernis ligt in het overwinnen van de beperkingen van de geheugencapaciteit. "We hanteren een heterogene samenwerkingsaanpak om CPU's en andere rekenkracht volledig te benutten, waarbij we alleen de niet-gedeelde delen van de sparse MoE-matrix op CPU/DRAM plaatsen voor verwerking met behulp van krachtige CPU-operators, terwijl de dense delen op de GPU blijven", legde hij verder uit. Rapporten geven aan dat Chuanjings open-source framework KTransformers voornamelijk verschillende strategieën en operatoren in de oorspronkelijke Transformers-implementatie injecteert via een template, waardoor de inferentiesnelheid met behulp van methoden zoals CUDAGraph aanzienlijk wordt verbeterd. DeepSeek heeft kansen gecreëerd voor deze startups, aangezien de groeivoordelen duidelijk worden; veel bedrijven hebben een aanzienlijke klantengroei gemeld na de lancering van de DeepSeek API, en ontvingen vragen van eerdere klanten die op zoek waren naar optimalisaties. Insiders uit de sector merkten op: "In het verleden zaten enigszins gevestigde klantgroepen vaak vast aan de gestandaardiseerde services van grotere bedrijven, sterk gebonden aan hun kostenvoordelen dankzij schaal. Nadat we echter de implementatie van DeepSeek-R1/V3 vóór het Lentefestival hadden afgerond, ontvingen we plotseling verzoeken om samenwerking van verschillende bekende klanten, en zelfs voorheen inactieve klanten namen contact op om onze DeepSeek-services te introduceren." Momenteel lijkt het erop dat DeepSeek de prestaties van modelinferentie steeds belangrijker maakt, en met de bredere acceptatie van grote modellen zal dit de ontwikkeling in de AI-infrastructuursector aanzienlijk blijven beïnvloeden. Als een model op DeepSeek-niveau lokaal en tegen lage kosten kan worden geïmplementeerd, zou dit de digitale transformatie van overheden en bedrijven aanzienlijk ondersteunen. Er blijven echter uitdagingen bestaan, aangezien sommige klanten hoge verwachtingen hebben van de mogelijkheden van grote modellen, waardoor het steeds duidelijker wordt dat het vinden van een evenwicht tussen prestaties en kosten essentieel is bij de praktische implementatie.
Om te beoordelen of DeepSeek beter is dan ChatGPT, is het essentieel om de belangrijkste verschillen, sterke punten en use cases te begrijpen. Hier is een uitgebreide vergelijking:
Kenmerk/Aspect | Diep zoeken | ChatGPT |
---|---|---|
Eigendom | Ontwikkeld door een Chinees bedrijf | Ontwikkeld door OpenAI |
Bronmodel | Open source | Eigendom |
Kosten | Gratis te gebruiken; goedkopere API-toegangsopties | Abonnement of pay-per-use-prijzen |
Maatwerk | Zeer aanpasbaar, waardoor gebruikers het kunnen aanpassen en verder kunnen uitbouwen | Beperkte aanpassing beschikbaar |
Prestaties bij specifieke taken | Blinkt uit op bepaalde gebieden, zoals data-analyse en informatieopvraging | Veelzijdig met sterke prestaties in creatief schrijven en conversatietaken |
Taalondersteuning | Sterke focus op de Chinese taal en cultuur | Brede taalondersteuning, maar gericht op de VS |
Opleidingskosten | Lagere trainingskosten, geoptimaliseerd voor efficiëntie | Hogere trainingskosten, waarvoor aanzienlijke computerbronnen nodig zijn |
Responsvariatie | Kan verschillende antwoorden opleveren, mogelijk beïnvloed door de geopolitieke context | Consistente antwoorden op basis van trainingsgegevens |
Doelgroep | Gericht op ontwikkelaars en onderzoekers die flexibiliteit willen | Gericht op algemene gebruikers die op zoek zijn naar conversatiemogelijkheden |
Gebruiksscenario's | Efficiënter voor codegeneratie en snelle taken | Ideaal voor het genereren van tekst, het beantwoorden van vragen en het aangaan van een dialoog |
Een kritisch perspectief op "Disrupting Nvidia"
Naast Huawei zijn ook verschillende binnenlandse chipfabrikanten, zoals Moore Threads, Muxi, Biran Technology en Tianxu Zhixin, bezig met de overstap naar de twee modellen van DeepSeek. Een chipfabrikant vertelde aan AI Technology Review: "De structuur van DeepSeek getuigt van innovatie, maar het blijft een LLM. Onze overstap naar DeepSeek is primair gericht op redeneertoepassingen, waardoor de technische implementatie vrij eenvoudig en snel verloopt." De MoE-aanpak stelt echter hogere eisen aan opslag en distributie, in combinatie met het garanderen van compatibiliteit bij implementatie met binnenlandse chips. Dit brengt tal van technische uitdagingen met zich mee die tijdens de overstap moeten worden opgelost. "De binnenlandse rekenkracht kan momenteel niet tippen aan die van Nvidia qua bruikbaarheid en stabiliteit. Dit vereist de deelname van de oorspronkelijke fabriek voor het opzetten van de softwareomgeving, het oplossen van problemen en het optimaliseren van de fundamentele prestaties", aldus een professional uit de sector op basis van praktijkervaring. Tegelijkertijd: "Vanwege de grote parameterschaal van DeepSeek R1 vereist de binnenlandse rekenkracht meer nodes voor parallellisatie. Bovendien lopen de binnenlandse hardwarespecificaties nog enigszins achter; de Huawei 910B kan bijvoorbeeld momenteel de door DeepSeek geïntroduceerde FP8-inferentie niet ondersteunen." Een van de hoogtepunten van het DeepSeek V3-model is de introductie van een FP8-trainingsframework met gemengde precisie, dat effectief is gevalideerd op een extreem groot model, wat een belangrijke prestatie is. Eerder suggereerden grote spelers zoals Microsoft en Nvidia gerelateerd werk, maar er blijven twijfels bestaan binnen de industrie over de haalbaarheid. Het is duidelijk dat het belangrijkste voordeel van FP8 ten opzichte van INT8 is dat post-trainingskwantificering een vrijwel verliesloze precisie kan bereiken en tegelijkertijd de inferentiesnelheid aanzienlijk kan verhogen. In vergelijking met FP16 kan FP8 tot twee keer zoveel versnelling realiseren op Nvidia's H20 en meer dan 1,5 keer zoveel versnelling op de H100. Met name nu de discussies over de trend van binnenlandse rekenkracht plus binnenlandse modellen aan kracht winnen, wordt er steeds vaker gespeculeerd over de vraag of Nvidia zou kunnen worden verstoord en of de CUDA-moat kan worden omzeild. Een onmiskenbaar feit is dat DeepSeek inderdaad een aanzienlijke daling van de marktwaarde van Nvidia heeft veroorzaakt, maar deze verschuiving roept vragen op over de integriteit van Nvidia's high-end rekenkracht. Eerder geaccepteerde verhalen over kapitaalgedreven rekenaccumulatie worden in twijfel getrokken, maar het blijft moeilijk voor Nvidia om volledig te worden vervangen in trainingsscenario's. Analyse van DeepSeeks diepgaande gebruik van CUDA toont aan dat flexibiliteit – zoals het gebruik van SM voor communicatie of het direct manipuleren van netwerkkaarten – niet haalbaar is voor reguliere GPU's. Standpunten in de industrie benadrukken dat Nvidia's moat het volledige CUDA-ecosysteem omvat in plaats van alleen CUDA zelf, en dat de PTX-instructies (Parallel Thread Execution) die DeepSeek gebruikt nog steeds deel uitmaken van het CUDA-ecosysteem. "Op korte termijn kan de rekenkracht van Nvidia niet worden omzeild – dit is vooral duidelijk bij training; het inzetten van binnenlandse kaarten voor redeneren zal echter relatief eenvoudiger zijn, dus de vooruitgang zal waarschijnlijk sneller zijn. De aanpassing van binnenlandse kaarten richt zich primair op inferentie; niemand is er tot nu toe in geslaagd om een model van de prestaties van DeepSeek op binnenlandse kaarten op grote schaal te trainen", merkte een brancheanalist op aan AI Technology Review. Over het algemeen zijn de omstandigheden vanuit inferentieperspectief bemoedigend voor binnenlandse chips met grote modellen. De kansen voor binnenlandse chipfabrikanten op het gebied van inferentie zijn duidelijker vanwege de buitensporig hoge eisen van training, die de toetreding belemmeren. Analisten stellen dat het simpelweg inzetten van binnenlandse inferentiekaarten voldoende is; indien nodig is de aanschaf van een extra machine haalbaar, terwijl het trainen van modellen unieke uitdagingen met zich meebrengt – het beheren van een groter aantal machines kan belastend worden en hogere foutpercentages kunnen de trainingsresultaten negatief beïnvloeden. Training stelt ook specifieke eisen aan de clusterschaal, terwijl de eisen aan clusters voor inferentie minder streng zijn, waardoor de GPU-vereisten worden versoepeld. De prestaties van Nvidia's single H20-kaart overtreffen momenteel die van Huawei of Cambrian niet; de kracht ligt in clustering. Gebaseerd op de algehele impact op de markt voor rekenkracht, merkte You Yang, oprichter van Luchen Technology, in een interview met AI Technology Review op: "DeepSeek kan de oprichting en verhuur van ultragrote trainingsclusters tijdelijk ondermijnen. Op de lange termijn zal de marktvraag waarschijnlijk sterk toenemen door de kosten die gepaard gaan met het trainen, redeneren en toepassen van grote modellen aanzienlijk te verlagen. Volgende iteraties van AI op basis hiervan zullen daarom de aanhoudende vraag op de markt voor rekenkracht blijven stimuleren." Bovendien: "De toegenomen vraag van DeepSeek naar redeneer- en finetuningdiensten sluit beter aan bij het binnenlandse rekenlandschap, waar de lokale capaciteit relatief zwak is, wat helpt om verspilling door ongebruikte resources na de oprichting van een cluster te beperken; dit creëert haalbare kansen voor fabrikanten op verschillende niveaus van het binnenlandse rekenecosysteem." Luchen Technology heeft samengewerkt met Huawei Cloud om de DeepSeek R1-serie redenerings-API's en cloud-imagingdiensten te lanceren, gebaseerd op binnenlandse rekenkracht. You Yang toonde zich optimistisch over de toekomst: "DeepSeek wekt vertrouwen in in eigen land geproduceerde oplossingen en stimuleert meer enthousiasme en investeringen in binnenlandse rekencapaciteit in de toekomst."

Conclusie
Of DeepSeek "beter" is dan ChatGPT hangt af van de specifieke behoeften en doelstellingen van de gebruiker. Voor taken die flexibiliteit, lage kosten en maatwerk vereisen, is DeepSeek mogelijk superieur. Voor creatief schrijven, algemene vragen en gebruiksvriendelijke conversatie-interfaces kan ChatGPT het voortouw nemen. Elke tool dient verschillende doeleinden, dus de keuze hangt sterk af van de context waarin ze worden gebruikt.
Stuurkabels
Gestructureerd bekabelingssysteem
Netwerk & Data, Glasvezelkabel, Patchkabel, Modules, Frontplaat
16-18 april 2024 Midden-Oosten - Energie in Dubai
16-18 april 2024 Securika in Moskou
9 mei 2024 LANCERINGSEVENEMENT VOOR NIEUWE PRODUCTEN EN TECHNOLOGIEËN in Shanghai
22-25 oktober 2024 SECURITY CHINA in Beijing
19-20 november 2024 CONNECTED WORLD KSA
Plaatsingstijd: 10-02-2025