DeepSeek — уҫӑ кодпа сарӑлакан чӗлхе моделӗсен йышӗ, ӑна пӗрешкел ятлӑ Китайри искусственнӑй интеллект лабораторийӗ хатӗрлет. Чат-ботлӑ пысӑк чӗлхе моделӗн ҫӗнӗ версийӗсем: DeepSeeek-V3 тата логикӑллӑ задачӑсем шутлакан «шухӑшлама пултаракан» DeepSeeek-R1. Ҫынсем усӑ куракан чӗлхесемпе ӗҫленӗ май, математика задачисене шутланӑ тата программӑланӑ чухне конкурентсем (GPT-4о е ҫавнашкал Open AI-o1, тата ҫавӑн пекех анӑҫри компанисем тунӑ модельсем) хатӗрленисемпе танлаштарсан хӑйне вӗсемпе тан, е лайӑхрах кӑтартать[1][2][3][4].
Ҫав вӑхӑтрах, DeepSeeek ҫирӗплетнӗ тӑрӑх, вӗсен моделӗсем вӗрентнӗ тата ӗҫленӗ чухне ресурссене сахалрах ыйтать, ҫавӑн пекех унпа усӑ курас тесен Раҫҫейри тата тӗнчери ытти кирек хӑш ҫӗршыври ҫынсем тӗлӗшпе чӑрмав кӳмеҫҫӗ[2][5]. Унсӑр пуҫне модельсемпе усӑ курас пулсан анӑҫри конкурентсеннинчен хакӗ вӑтамран 96 % пӗчӗкрех[6][7].
2025 ҫулхикӑрлачӑн 20-мӗшӗнче DeepSeeek-R1 моделе вырнаҫтарнӑ хыҫҫӑн АПШ-ри технологи компанийӗсен рынок котировкисем (искусствӑллӑ интеллект сферинче ӗҫлекенсен те, шутлав хатӗр-хӗтӗрне туса кӑларакансен те) вӑйлӑ хавшанӑ, ҫавӑн пекех анӑҫри ИИ-инфраструктурӑна ытла нумай миллиард укҫа хывни, усӑ куракан оборудовани тӗлӗшпе ытла нумай ыйтни тавра тавлашусем пуҫланнӑ[8][9].
DeepSeek Coder хӑйӗн пӗрремӗш нейросете 2023 ҫулхи чӳкӗн 2-мӗшӗнче кӑтартнӑ; ҫав уйӑхӑн 29-мӗшӗнчех 67 млрд параметртан тӑракан DepSeek LLM пӗрремӗш универсаллӑ пысӑк чӗлхе моделӗ тухнӑ, ҫав вӑхӑт тӗлне вӑл LLama 2 хӑватӗнчен иртсе GPT-4 патнелле ҫывхарнӑ[13], анчах та хӑш-пӗрисем каланӑ тӑрӑх ӑна маштаблама йывӑр пулнӑ тата шутлав тӗлӗшӗнчен те тухӑҫлӗхӗ пысӑках пулман. Ҫавӑн чухнех DeepSeek LLM ҫинче ӗҫлекен интеллектуаллӑ чат-ботпа чи малтанхи хут паллаштарнӑ.
Малтанхи вӗренӗве 1,8 трлн токенпа йӗркеленӗ (даннӑйсемпе ҫыхӑннӑ ӑслӑлӑхра 1 млн токен ҫинчен каланӑ чухне 750 пин сӑмах пирки калаҫҫӗ)[14].
Базӑллӑ модельсен Long-context pretraining (LCP, акӑлчан чӗлхинчен — вӑрӑм контекстлӑ йӗркисемпе ӗҫлеме вӗрентесси) 200 млрд токенпа йӗркеленӗ, ҫакӑ сеть ӗҫлеме пултаракан контекстӑн вӑрӑмашне 4 пин токенран 16 пин токен таран ҫитерме май панӑ.
Аслӑ модельсенчи параметрсен шучӗ 236 миллиарда ҫитнӗ; малтанах вӗрентнӗ чухне 8,1 триллион токенпа усӑ курнӑ, контекстӑн чи пысӑк тӑршшӗ вара 128 пин токенп ҫитнӗ.
Пӗрремӗш версипе танлаштарсан архитектура тӗлӗшӗнчен модельте питӗ пысӑк улшӑнусем пулса иртнӗ: унта Multi-head Learning Attention (MLA, акӑлчанла – «Нумай енлӗ тимлӗхпе вӗрентни»)[16] кӗҫӗн ранглӑ апроксимаци никӗсӗ ҫинче машинӑпа вӗрентмелли ҫӗнӗ меслетпе усӑ курнӑ, ҫакӑ моделе вӗрентмелли хака тата вӑхӑта темиҫе хутчен чакарма май панӑ[16][17]. Унсӑр пуҫне компани Mixture of Experts (MoE, акӑлчанла – «экспертсен шухӑшне хушни») принципа хатӗрлесе модельте усӑ курма тытӑннӑ: ҫакӑн пек майпа модель нумай ҫумсетьрен тӑрать, вӗсенчен кашни хӑйӗн ятарлӑ пӗлӳ облаҫӗшӗн яваплӑ, кирлӗ чухне кӑна ыйту хуравне шырама хутшӑнать[18][19].
MLA тата MoE меслетсемпе усӑ курни миллион токенпа ӗҫлеме кирлӗ хака 2 юань таран ҫитернӗ, ChatGPT вара ҫакнашкал пысӑк калӑпӑш валли 2,5 доллар кирлӗ пулнӑ[20]. Ҫав вӑхӑтрах DeepSeek-V2 ӗҫ пахалӑхӗ енӗпе те ӑмӑртма пултарнӑ: Ватерлоо университечӗ ҫумӗнчи искусствӑллӑ интеллект лабораторийӗ ӑна чи лайӑх пысӑк чӗлхе моделӗсен рейтингӗнче 7-мӗш вырӑна лартнӑ[21].
2024 ҫулхи раштав уйӑхӗнче уҫҫӑн усӑ курма модельӑн виҫҫӗмӗш версийӗ икӗ вариантпа тухнӑ: стандартлӑ (V3-Base) тата чат-бот (V3). Вӑл 671 миллиард параметртан тӑрать, ӑна 14,8 триллион токен ҫинче вӗрентнӗ. DeepSeek-V2 версийӗнче тӗрӗслесе пӑхнӑ архитектури ҫинчен йӗркеленӗ нейросеть текстсене тишкерсе каласа пама, тӗп информацие уйӑрма, куҫарма, ҫавӑн пекех математика задачисен тупсӑмне тупма тата OpenAI, Meta е Anthropic компанийӗсен чи аталаннӑ моделӗсемпе пӗр шайра программӑсем ҫырма[2] пултарать: сӑмахран, DeepSeek-V3 тестсем ирттернӗ хыҫҫӑн Llama 3.1 Qwen 2.5[1] модельтен лайӑхрах, вӑл GPT-4о тата Claude 3.5 Sonnet пӗртан пулнӑ[2][3].
DeepSeeek-V3 хӑвӑртлӑхне ытти пысӑк чӗлхе моделӗсемпе танлаштарни
DeepSeek ӑсталанӑ тӳлевсӗр приложение — «DeepSeek — AI Assistant» чат-бот — 2025 ҫулхи кӑрлач уйӑхӗн вӗҫӗнче тӗнчере чи нумай уҫласа илнӗ приложение пулса тӑнӑ, ҫавӑн пекех АПШ-ра чи пысӑк хаклав панӑ тӳлевсӗр приложенисен рейтингӗнче ChatGPT-на кая хӑварнӑ[22]. Унсӑр пуҫне DeepSeek санкцисен политикине пурнӑҫламасть, хӑйӗн моделӗпе ӗҫлеме нимӗнле чару та тумасть, тӗнчипе пур патшалӑхри халӑха та — ҫав шутра Раҫҫейрине те — усӑ курма пӗр тан майсем хатӗрлесе парать[2].
DeepSeeek-V3 чат-ботӑн веб-интерфейсӗ. Сервис официаллӑ майпа Раҫҫейре ӗҫлет, унта вырӑс чӗлхи те пур.
Моделе хатӗрлекенсем ҫирӗплетнӗ тӑрӑх, ӑна экспорт тӗрӗслевне тивӗҫтермешкӗн хавшатнӑ 2000 Nvidia видеокарти ҫинче вӗрентме 55 кун кӑна кирлӗ пулнӑ; ҫапла вара вӗрентмелли хак 5,5 миллион долларпа кӑна танлашнӑ, ку Llama е GPT-4o моделӗсене вӗрентнипе танлаштарсан самай йӳнӗрех[7][23].
Ҫакнашкал пахалӑха DeepSeek-ӑн архитектура уйрӑмлӑхӗсене пула тивӗҫтерме май килнӗ:
Multi-token Prediction (MTP) меслечӗ предложенин тӗрлӗ пайӗсене пӗр вӑхӑтра тишкерме те тата темиҫе сӑмаха маларах ӑнланса илме те май парать, ҫакӑ вара модель ӗҫне хӑвӑртлатать тата тӗрӗсрех хуравсем йӗркелеме май парать.
Mixture of Experts (MoE) технологийӗ моделе «экспертлӑ» ҫумсетьсем вырнаҫтарать, вӗсемпе усӑ курса ятарлӑ пӗлӳ облаҫӗсемпе ҫыхӑннӑ ыйтусен хуравне тупма май пур. DeepSeek-V3-ра ҫакнашкал 256 нейросеть вырнаҫтарнӑ, вӗсенчен саккӑрӑшӗ ялан ӗҫлеҫҫӗ, ыттисем вара уйрӑм йышши задачӑсен хуравне шыранӑ чухне ӗҫе хутшӑнаҫҫӗ.
Вӗрентме тата усӑ курма чылай хут пӗчӗкрех тӑкаклакан модель тухни 2025 ҫулхи кӑрлачӑн 28-мӗшӗнче технологи компанийӗсен хакӗсене самай пӗчӗклетнӗ. Сӑмахран, нейросетьсене вӗрентмелли хатӗр-хӗтӗрсемпе тивӗҫтерекен тӗнчери чи пысӑк компани Nvidia 600 миллиард доллар ытла ҫӳхатнӑ, капитализацийӗ 18% чакнӑ, фонд пасарӗн историйӗнче хак ҫухатнинче ҫакӑ чи анлӑ чакни пулнӑ[29].
Искусствӑллӑ интеллект секторӗпе ҫыхӑннӑ ытти чылай компани те питӗ пысӑк ҫухатусем тӳснӗ — Аркадий Воложӑн Nebius компани (-4 %), Broadcom (-17,3 %), AMD (-8 %), Palantir (-7 %), Microsoft (-3 %), ҫавӑн пекех дата-центрсене электроэнергипе тивӗҫтерекен тӗп поставщиксем те шар курнӑ: Constellation Energy (-21 %), Vistra (-29 %). NASDAQ индекс 3,5 % анса ларнӑ, S&P вара 1,8 % ҫухатнӑ. Пӗтӗмӗшле илсен, Америкӑри биржӑсем 1 триллион доллар ытла ҫухатнӑ[29], криптовалютӑсен хакӗ 7 % чакнӑ[30].
DeepSeek моделӗсене вӗрентме 2021 ҫултах туяннӑ Nvidia A100 видеокарттӑсемпе усӑ курни паллӑ, вӑл вӑхӑтра АПШ Китай тӗлӗшпе чипсене импортласси тӗлӗшӗнчен чарусем йӗркелемен пулнӑ. Тӗрлӗ даннӑйсемпе DeepSeek стартапа ҫавнашкал 10 пин таран видеокарта лекнӗ (хӑшпӗр анӑҫри экспертсен шухӑшӗпе компани аллинче 40 пин ытла хавшатнӑ Nvidia H800 видеокарттӑн экспортлӑ варианчӗ пур[33][34]), ку OpenAI е Llama компанисенче усӑ куракан йышран темиҫе хут пӗчӗкрех (кашни компанийӗн 300 пин видеокартта таран пур)[35][36]. Ҫапла вара, шутлав хӑвачӗ ҫитменни DeepSeek-а ҫӳлерех асӑннӑ инновациллӗ архитектура меслечӗсене шырама хистенӗ те пулас, вӗсем ҫак йывӑрлӑхран тухма пулӑшнӑ[37].
Claude AI чӗлхе моделӗсен чылай ярӑмне хатӗрленӗ Anthropic компанине йӗркеленӗ Дарио Амодей шухӑшӗпе Китайри разработчиксем чапа тухас тесе хӑйсем пирки янратса пӗлтернӗ кӑна, вӗсем чӑн-чӑн ҫитӗнӳсем тунӑ теме май ҫук. Амодей шухӑшӗпе DeepSeek американсем 7-10 уйӑх каялла ӑсталанӑ модельсен шайне ҫеҫ ҫывхарнӑ, ҫакӑн валли вӗсем сахалрах укҫа тӑкакланӑ кӑна, анчах ку тӑкаксене чакарассин юхӑмӗпе килӗшсе пырать. Унсӑр пуҫне Китайри стартап аллинче ресурссем сахал мар пулнӑ. Амодей палӑртнӑ тӑрӑх, DeepSeek лайӑх кӑтартусем тунӑ, анчах ҫакна революци теме май ҫук, мӗншӗн тесен тӑкаксене чакарни ку вӑхӑтри юхӑмпа килӗшсе тӑрать, ҫав вӑхӑтрах DeepSeek тунӑ пӗтӗмӗшле тӑкаксем Америкӑри ИИ-лабораторийӗсеннипе танах. Унсӑр пуҫне, DeepSeek-V3 версинче питӗ чаплӑ тесе хаклакан DeepSeek-R1 версипе танлаштарсан инновацисем ытларах[38].