За BMS, BUS, индустриален, инструментален кабел.

С наближаването на края на Пролетния фестивал, вълнението около DeepSeek остава силно. Неотдавнашният празник подчерта значителното чувство за конкуренция в технологичната индустрия, като мнозина обсъждат и анализират този „сом“. Силициевата долина преживява безпрецедентно чувство за криза: защитниците на отворения код отново изразяват мнението си и дори OpenAI преоценява дали стратегията му за затворен код е била най-добрият избор. Новата парадигма на по-ниски изчислителни разходи предизвика верижна реакция сред чип гиганти като Nvidia, което доведе до рекордни загуби на пазарна стойност за един ден в историята на американския фондов пазар, докато правителствените агенции разследват съответствието на чиповете, използвани от DeepSeek. На фона на смесени отзиви за DeepSeek в чужбина, на вътрешния пазар той преживява изключителен растеж. След пускането на модела R1, свързаното с него приложение отбеляза скок в трафика, което показва, че растежът в секторите на приложенията ще тласне напред цялостната екосистема на ИИ. Положителният аспект е, че DeepSeek ще разшири възможностите за приложения, което предполага, че разчитането на ChatGPT няма да бъде толкова скъпо в бъдеще. Тази промяна е отразена в последните дейности на OpenAI, включително предоставянето на модел за разсъждение, наречен o3-mini, на безплатни потребители в отговор на DeepSeek R1, както и последващи подобрения, които направиха мисловната верига на o3-mini публично достояние. Много чуждестранни потребители изразиха благодарност на DeepSeek за тези разработки, въпреки че тази мисловна верига служи само като обобщение.
Оптимистично е очевидно, че DeepSeek обединява местните играчи. С фокуса си върху намаляване на разходите за обучение, различни производители на чипове, междинни доставчици на облачни услуги и множество стартиращи компании активно се присъединяват към екосистемата, повишавайки ефективността на разходите за използване на модела DeepSeek. Според документите на DeepSeek, пълното обучение на модела V3 изисква само 2,788 милиона часа H800 GPU, а процесът на обучение е изключително стабилен. Архитектурата MoE (Mixture of Experts) е от решаващо значение за намаляване на разходите за предварително обучение с коефициент десет в сравнение с Llama 3 с 405 милиарда параметъра. В момента V3 е първият публично признат модел, демонстриращ такава висока разреденост в MoE. Освен това, MLA (Multi Layer Attention) работи синергично, особено в аспектите на разсъжденията. „Колкото по-разредено е MoE, толкова по-голям е размерът на партидата, необходим по време на разсъждението, за да се използва напълно изчислителната мощност, като размерът на KVCache е ключовият ограничаващ фактор; MLA значително намалява размера на KVCache“, отбеляза изследовател от Chuanjing Technology в анализ за AI Technology Review. Като цяло, успехът на DeepSeek се крие в комбинацията от различни технологии, а не само в една единствена. Експерти от индустрията хвалят инженерните възможности на екипа на DeepSeek, отбелязвайки техните отлични постижения в паралелното обучение и оптимизацията на операторите, постигайки новаторски резултати чрез усъвършенстване на всеки детайл. Подходът с отворен код на DeepSeek допълнително стимулира цялостното развитие на големи модели и се очаква, че ако подобни модели се разширят до изображения, видеоклипове и други, това значително ще стимулира търсенето в цялата индустрия.
Възможности за услуги за разсъждения от трети страни
Данните показват, че от пускането си на пазара, DeepSeek е натрупал 22,15 милиона активни потребители (DAU) дневно само в рамките на 21 дни, достигайки 41,6% от потребителската база на ChatGPT и надминавайки 16,95 милиона активни потребители дневно на Doubao, като по този начин се превръща в най-бързо развиващото се приложение в световен мащаб, оглавявайки Apple App Store в 157 страни/региона. Въпреки че потребителите се стичат масово, киберхакерите безмилостно атакуват приложението DeepSeek, причинявайки значително натоварване на сървърите му. Анализаторите от индустрията смятат, че това се дължи отчасти на факта, че DeepSeek използва карти за обучение, като същевременно няма достатъчна изчислителна мощност за разсъждения. Вътрешен човек от индустрията информира AI Technology Review: „Честите проблеми със сървърите могат да бъдат решени лесно чрез начисляване на такси или финансиране за закупуване на повече машини; в крайна сметка това зависи от решенията на DeepSeek.“ Това представлява компромис между фокусирането върху технологиите и продукцията. DeepSeek до голяма степен разчита на квантова квантизация за самоиздръжка, като е получил малко външно финансиране, което води до относително нисък натиск върху паричния поток и по-чиста технологична среда. В момента, предвид гореспоменатите проблеми, някои потребители настоятелно призовават DeepSeek в социалните медии да повиши праговете за използване или да въведе платени функции, за да подобри комфорта на потребителите. Освен това разработчиците започнаха да използват официалния API или API на трети страни за оптимизация. Отворената платформа на DeepSeek обаче наскоро обяви: „Настоящите сървърни ресурси са оскъдни и презарежданията на API услугите са спрени.“
Това несъмнено отваря повече възможности за доставчици на трети страни в сектора на инфраструктурата с изкуствен интелект. Наскоро множество местни и международни облачни гиганти стартираха API-тата за модели на DeepSeek – задграничните гиганти Microsoft и Amazon бяха сред първите, които се присъединиха в края на януари. Местният лидер, Huawei Cloud, направи първия ход, пускайки услугите за разсъждение DeepSeek R1 и V3 в сътрудничество с Flow, базирана на Silicon, на 1 февруари. Доклади от AI Technology Review показват, че услугите на Flow, базирана на Silicon, са претърпели приток на потребители, което на практика е „сринало“ платформата. Трите големи технологични компании – BAT (Baidu, Alibaba, Tencent) и ByteDance – също издадоха евтини, ограничени по време оферти, считано от 3 февруари, напомнящи за миналогодишните ценови войни между доставчиците на облачни услуги, разпалени от пускането на модела V2 на DeepSeek, където DeepSeek започна да бъде наричан „ценови касапин“. Неистовите действия на доставчиците на облачни услуги напомнят за по-ранните силни връзки между Microsoft Azure и OpenAI, където през 2019 г. Microsoft направи значителна инвестиция от 1 милиард долара в OpenAI и пожъна ползи след пускането на ChatGPT през 2023 г. Тази тясна връзка обаче започна да се разпада, след като Meta направи Llama с отворен код, което позволи на други доставчици извън екосистемата на Microsoft Azure да се конкурират с техните големи модели. В този случай DeepSeek не само надмина ChatGPT по отношение на продуктовата популярност, но и въведе модели с отворен код след пускането на o1, подобно на вълнението около възраждането на GPT-3 от страна на Llama.
В действителност, доставчиците на облачни услуги се позиционират и като шлюзове за трафик за приложения с изкуствен интелект, което означава, че задълбочаването на връзките с разработчиците води до превантивни предимства. Докладите показват, че Baidu Smart Cloud е имал над 15 000 клиенти, използващи модела DeepSeek чрез платформата Qianfan в деня на пускането на модела. Освен това, няколко по-малки фирми предлагат решения, включително Flow, базиран на силиций, Luchen Technology, Chuanjing Technology и различни доставчици на AI Infra, които са стартирали поддръжка за моделите DeepSeek. AI Technology Review научи, че настоящите възможности за оптимизация за локализирани внедрявания на DeepSeek съществуват предимно в две области: едната е оптимизиране на характеристиките на разреденост на MoE модела, използвайки смесен подход за разгръщане на MoE модела с 671 милиарда параметъра локално, като същевременно се използва хибриден GPU/CPU извод. Освен това, оптимизацията на MLA е жизненоважна. Двата модела на DeepSeek обаче все още са изправени пред някои предизвикателства при оптимизацията на внедряването. „Поради размера на модела и многобройните параметри, оптимизацията наистина е сложна, особено за локални внедрявания, където постигането на оптимален баланс между производителност и цена ще бъде предизвикателство“, заяви изследовател от Chuanjing Technology. Най-същественото препятствие се крие в преодоляването на ограниченията на капацитета на паметта. „Ние възприемаме хетерогенен подход за сътрудничество, за да използваме пълноценно процесорите и други изчислителни ресурси, като поставяме само несподелените части от разредената MoE матрица върху CPU/DRAM за обработка с помощта на високопроизводителни CPU оператори, докато плътните части остават върху GPU“, обясни той допълнително. Докладите показват, че рамката с отворен код KTransformers на Chuanjing основно инжектира различни стратегии и оператори в оригиналната имплементация на Transformers чрез шаблон, значително подобрявайки скоростта на извод, използвайки методи като CUDAGraph. DeepSeek създаде възможности за тези стартиращи компании, тъй като ползите от растежа стават очевидни; много фирми съобщават за забележим ръст на клиентите след стартирането на DeepSeek API, получавайки запитвания от предишни клиенти, търсещи оптимизации. Запознати от индустрията отбелязват: „В миналото донякъде установените клиентски групи често бяха обвързани със стандартизираните услуги на по-големите компании, тясно обвързани от своите ценови предимства поради мащаба. След завършване на внедряването на DeepSeek-R1/V3 преди Пролетния фестивал обаче, внезапно получихме заявки за сътрудничество от няколко добре познати клиенти и дори преди това спящи клиенти инициираха контакт, за да представят нашите DeepSeek услуги.“ В момента изглежда, че DeepSeek прави производителността на моделния извод все по-важна и с по-широкото приемане на големи модели, това ще продължи да влияе значително върху развитието на индустрията за изкуствен интелект (AI Infra). Ако модел на ниво DeepSeek може да бъде внедрен локално на ниска цена, това би подпомогнало значително усилията на правителството и предприятията за дигитална трансформация. Предизвикателствата обаче продължават, тъй като някои клиенти може да имат високи очаквания относно възможностите на големите модели, което прави по-очевидно, че балансирането между производителността и разходите става жизненоважно при практическото внедряване.
За да се оцени дали DeepSeek е по-добър от ChatGPT, е важно да се разберат техните ключови разлики, силни страни и случаи на употреба. Ето едно подробно сравнение:
Характеристика/Аспект | Дълбоко търсене | ChatGPT |
---|---|---|
Собственост | Разработено от китайска компания | Разработено от OpenAI |
Изходен модел | Отворен код | Патентовано |
Цена | Безплатно за ползване; по-евтини опции за достъп до API | Ценообразуване с абонамент или плащане при ползване |
Персонализиране | Високо персонализируемо, което позволява на потребителите да го настройват и надграждат | Ограничена възможност за персонализиране |
Производителност при изпълнение на специфични задачи | Отличава се в определени области като анализ на данни и извличане на информация | Универсален с отлични резултати в творческо писане и разговорни задачи |
Езикова поддръжка | Силен фокус върху китайския език и култура | Широка езикова поддръжка, но съсредоточена върху САЩ |
Разходи за обучение | По-ниски разходи за обучение, оптимизирани за ефективност | По-високи разходи за обучение, изискващи значителни изчислителни ресурси |
Вариация на отговора | Може да предложи различни отговори, вероятно повлияни от геополитическия контекст | Последователни отговори, базирани на данни от обучението |
Целева аудитория | Насочено към разработчици и изследователи, които търсят гъвкавост | Насочено към обикновени потребители, търсещи умения за разговор |
Случаи на употреба | По-ефективен за генериране на код и бързи задачи | Идеален за генериране на текст, отговаряне на запитвания и водене на диалог |
Критична перспектива върху „разрушаването на Nvidia“
В момента, освен Huawei, няколко местни производители на чипове, като Moore Threads, Muxi, Biran Technology и Tianxu Zhixin, също се адаптират към двата модела на DeepSeek. Производител на чипове заяви пред AI Technology Review: „Структурата на DeepSeek демонстрира иновации, но въпреки това остава LLM. Нашата адаптация към DeepSeek е фокусирана предимно върху приложенията за разсъждение, което прави техническото внедряване сравнително лесно и бързо.“ Подходът на MoE обаче изисква по-високи изисквания по отношение на съхранението и разпространението, съчетани с осигуряване на съвместимост при внедряване с местни чипове, което представлява множество инженерни предизвикателства, които трябва да бъдат решени по време на адаптацията. „В момента местната изчислителна мощност не съответства на Nvidia по отношение на използваемост и стабилност, което изисква първоначално участие на фабриката за настройка на софтуерната среда, отстраняване на проблеми и основна оптимизация на производителността“, каза практикуващ в индустрията въз основа на практически опит. Едновременно с това, „Поради големия мащаб на параметрите на DeepSeek R1, местната изчислителна мощност изисква повече възли за паралелизация. Освен това, местните хардуерни спецификации все още са донякъде изостанали; например, Huawei 910B в момента не може да поддържа извода FP8, въведен от DeepSeek.“ Един от акцентите на модела DeepSeek V3 е въвеждането на FP8 рамка за смесено прецизно обучение, която е ефективно валидирана върху изключително голям модел, което отбелязва значително постижение. Преди това големи играчи като Microsoft и Nvidia предложиха подобна работа, но в индустрията остават съмнения относно осъществимостта. Разбира се, че в сравнение с INT8, основното предимство на FP8 е, че квантизацията след обучение може да постигне почти беззагубна прецизност, като същевременно значително подобрява скоростта на извод. В сравнение с FP16, FP8 може да реализира до два пъти ускорение на H20 на Nvidia и над 1,5 пъти ускорение на H100. Важно е да се отбележи, че с набирането на скорост на дискусиите около тенденцията за местна изчислителна мощност плюс местни модели, спекулациите за това дали Nvidia може да бъде нарушена и дали CUDA ровът може да бъде заобиколен стават все по-разпространени. Един неоспорим факт е, че DeepSeek наистина е причинил значителен спад в пазарната стойност на Nvidia, но тази промяна повдига въпроси относно целостта на високия клас изчислителна мощност на Nvidia. Предишни приети наративи относно капиталово-ориентираното натрупване на изчислителни ресурси се оспорват, но все още е трудно Nvidia да бъде напълно заменена в сценарии за обучение. Анализът на дълбокото използване на CUDA от DeepSeek показва, че гъвкавостта - като например използване на SM за комуникация или директно манипулиране на мрежови карти - не е осъществима за обикновените графични процесори. Гледните точки на индустрията подчертават, че ровът на Nvidia обхваща цялата екосистема на CUDA, а не само самата CUDA, а инструкциите PTX (Parallel Thread Execution), които DeepSeek използва, все още са част от екосистемата на CUDA. „В краткосрочен план изчислителната мощност на Nvidia не може да бъде заобиколена - това е особено ясно при обучението; внедряването на местни карти за разсъждения обаче ще бъде сравнително по-лесно, така че напредъкът вероятно ще бъде по-бърз. Адаптирането на местните карти се фокусира предимно върху извода; никой все още не е успял да обучи модел на производителността на DeepSeek върху местни карти в голям мащаб“, отбеляза индустриален анализатор пред AI Technology Review. Като цяло, от гледна точка на извода, обстоятелствата са окуражаващи за чиповете с големи модели на местни продукти. Възможностите за местните производители на чипове в сферата на извода са по-очевидни поради прекомерно високите изисквания за обучение, които възпрепятстват навлизането на пазара. Анализаторите твърдят, че простото използване на местни карти за извод е достатъчно; ако е необходимо, придобиването на допълнителна машина е осъществимо, докато моделите за обучение представляват уникални предизвикателства - управлението на увеличен брой машини може да стане тежко, а по-високите нива на грешки могат да повлияят негативно на резултатите от обучението. Обучението също има специфични изисквания за мащаба на клъстера, докато изискванията към клъстерите за извод не са толкова строги, което облекчава изискванията за графичния процесор. В момента производителността на единичната карта H20 на Nvidia не надминава тази на Huawei или Cambrian; нейната сила се крие в клъстерирането. Въз основа на цялостното въздействие върху пазара на изчислителна мощност, основателят на Luchen Technology, Ю Янг, отбеляза в интервю за AI Technology Review: „DeepSeek може временно да подкопае създаването и отдаването под наем на ултраголеми изчислителни клъстери за обучение. В дългосрочен план, чрез значително намаляване на разходите, свързани с обучението, разсъжденията и приложенията на големи модели, пазарното търсене вероятно ще се увеличи. Следователно последващите итерации на ИИ, базирани на това, ще стимулират непрекъснато устойчиво търсене на пазара на изчислителна мощност.“ Освен това, „засиленото търсене на DeepSeek за услуги за разсъждение и фина настройка е по-съвместимо с местния изчислителен пейзаж, където местните капацитети са сравнително слаби, което помага за смекчаване на разхищението от неизползвани ресурси след създаването на клъстера; това създава жизнеспособни възможности за производители на различни нива на местната изчислителна екосистема.“ Luchen Technology си сътрудничи с Huawei Cloud за пускането на DeepSeek R1 серия API за разсъждение и услуги за облачни изображения, базирани на местната изчислителна мощност. Ю Ян изрази оптимизъм за бъдещето: „DeepSeek вдъхва доверие в местните решения, насърчавайки по-голям ентусиазъм и инвестиции в местни изчислителни възможности в бъдеще.“

Заключение
Дали DeepSeek е „по-добър“ от ChatGPT зависи от специфичните нужди и цели на потребителя. За задачи, изискващи гъвкавост, ниска цена и персонализиране, DeepSeek може да е по-добър. За творческо писане, общи проучвания и лесни за използване разговорни интерфейси, ChatGPT може да поеме водещата роля. Всеки инструмент служи за различни цели, така че изборът ще зависи до голяма степен от контекста, в който се използва.
Контролни кабели
Структурна кабелна система
Мрежа и данни, оптичен кабел, пач корд, модули, лицева плоча
16-18 април 2024 г. Енергетично изложение за Близкия изток в Дубай
16-18 април 2024 г. Securika в Москва
9 май 2024 г. СЪБИТИЕ ЗА ПРЕДСТАВЯНЕ НА НОВИ ПРОДУКТИ И ТЕХНОЛОГИИ в Шанхай
22-25 октомври 2024 г. СИГУРНОСТ КИТАЙ в Пекин
19-20 ноември 2024 г. CONNECTED WORLD KSA
Време на публикуване: 10 февруари 2025 г.