DeepSeek (чӗлхе моделӗ)

«РУВИКИ» ирӗклӗ энциклопединчи материал
DeepSeek
DeepSeek logo.svg
Тĕс пысӑк чӗлхе моделӗ
Ăслайçă DeepSeek
Лицензи Уҫӑ
Сайчĕ deepseek.com

DeepSeek — уҫӑ кодпа сарӑлакан чӗлхе моделӗсен йышӗ, ӑна пӗрешкел ятлӑ Китайри искусственнӑй интеллект лабораторийӗ хатӗрлет. Чат-ботлӑ пысӑк чӗлхе моделӗн ҫӗнӗ версийӗсем: DeepSeeek-V3 тата логикӑллӑ задачӑсем шутлакан «шухӑшлама пултаракан» DeepSeeek-R1. Ҫынсем усӑ куракан чӗлхесемпе ӗҫленӗ май, математика задачисене шутланӑ тата программӑланӑ чухне конкурентсем (GPT-4о е ҫавнашкал Open AI-o1, тата ҫавӑн пекех анӑҫри компанисем тунӑ модельсем) хатӗрленисемпе танлаштарсан хӑйне вӗсемпе тан, е лайӑхрах кӑтартать[1][2][3][4].

Ҫав вӑхӑтрах, DeepSeeek ҫирӗплетнӗ тӑрӑх, вӗсен моделӗсем вӗрентнӗ тата ӗҫленӗ чухне ресурссене сахалрах ыйтать, ҫавӑн пекех унпа усӑ курас тесен Раҫҫейри тата тӗнчери ытти кирек хӑш ҫӗршыври ҫынсем тӗлӗшпе чӑрмав кӳмеҫҫӗ[2][5]. Унсӑр пуҫне модельсемпе усӑ курас пулсан анӑҫри конкурентсеннинчен хакӗ вӑтамран 96 % пӗчӗкрех[6][7].

2025 ҫулхи кӑрлачӑн 20-мӗшӗнче DeepSeeek-R1 моделе вырнаҫтарнӑ хыҫҫӑн АПШ-ри технологи компанийӗсен рынок котировкисем (искусствӑллӑ интеллект сферинче ӗҫлекенсен те, шутлав хатӗр-хӗтӗрне туса кӑларакансен те) вӑйлӑ хавшанӑ, ҫавӑн пекех анӑҫри ИИ-инфраструктурӑна ытла нумай миллиард укҫа хывни, усӑ куракан оборудовани тӗлӗшпе ытла нумай ыйтни тавра тавлашусем пуҫланнӑ[8][9].

Аталану кун-ҫулӗ

[тӳрлет | кодне тӳрлет]

DeepSeek-а 2015 ҫулта Китайри искусствӑллӑ интеллект енӗпе ӗҫлекен High-Flyer хедж-фондран (ИИ сферинче вӑй хуракан Китай миллиардерӗ тата энтузиасчӗ Лян Вэньфан никӗсленӗ) хӑй тӗллӗн аталанакан стартапа уйӑрнӑ. 2024 ҫулхи утӑ уйӑхӗнче вӑл хальхи генеративлӑ модельсен пысӑк ҫитменлӗх пурри пирки, ҫӗнӗ компанин тӗллевӗ вара пӗтӗмӗшле искусствӑллӑ интеллекта (AGI) ӑсталасси пулни ҫинчен пӗлтернӗ[10]. 2024 ҫулхи чӳк уйӑхӗнче компани пуҫлӑхӗ DeepSeek малалла тӳлевлӗ пулӑшусен йышне ӳстерме планламанни ҫинчен тата уҫӑ кодлӑ продукт кӑларма ӑнтӑлни пирки тепӗр хут ҫирӗплетнӗ[11].

DeepSeeek продукчӗсене сарассин моделӗ

[тӳрлет | кодне тӳрлет]

Искусствӑллӑ интеллект енӗпе ӗҫлекен малта пыракан анӑҫри компанисемпе (OpenAI, Meta е Anthropic) танлаштарсан DeepSeek мӗнпур чӗлхе моделӗсем малтанах ирӗклӗ MIT лицензипе сарӑлнӑ. 2025 ҫулхи кӑрлач уйӑхӗнче DeepSeek V3 тата DeepSeek R-1 модельсен ҫитӗнӗвне ӑнлантраса панӑ май Meta-ра искусствӑллӑ интеллект енӗпе ӗҫлекен Ян Лекун тӗп специалист пӗлтернӗ тӑрӑх, «ИИ сферинче уҫӑ кодлӑ модельсем проприетарлӑ хатӗрленисенчен иртсе кайнине кӑтартса панӑ»[12].

2023 ҫулхи чӳк уйӑхӗнчен пуҫласа DeepSeek пысӑк чӗлхе моделӗсен 3 генераципе паллаштарнӑ.

DeepSeek Coder тата DeepSeek LLM

[тӳрлет | кодне тӳрлет]

DeepSeek Coder хӑйӗн пӗрремӗш нейросете 2023 ҫулхи чӳкӗн 2-мӗшӗнче кӑтартнӑ; ҫав уйӑхӑн 29-мӗшӗнчех 67 млрд параметртан тӑракан DepSeek LLM пӗрремӗш универсаллӑ пысӑк чӗлхе моделӗ тухнӑ, ҫав вӑхӑт тӗлне вӑл LLama 2 хӑватӗнчен иртсе GPT-4 патнелле ҫывхарнӑ[13], анчах та хӑш-пӗрисем каланӑ тӑрӑх ӑна маштаблама йывӑр пулнӑ тата шутлав тӗлӗшӗнчен те тухӑҫлӗхӗ пысӑках пулман. Ҫавӑн чухнех DeepSeek LLM ҫинче ӗҫлекен интеллектуаллӑ чат-ботпа чи малтанхи хут паллаштарнӑ.

Пӗтӗмпе пӗрремӗш моделӗн 8 вариантне хатӗрленӗ: тӑваттӑшӗ малтан вӗрентнӗ стандартлӑскер (Base) пулнӑ, тепӗр тӑваттӑшне инструкцисемпе (Instruct) уйрӑммӑн ӗнерлесе хатӗрленӗ. Вӗсем пурте Llama модельсенче усӑ курнӑ «тимлӗх» механизмпа усӑ куракан трансформер архитектури ҫине никӗҫленнӗ пулнӑ.

  • Малтанхи вӗренӗве 1,8 трлн токенпа йӗркеленӗ (даннӑйсемпе ҫыхӑннӑ ӑслӑлӑхра 1 млн токен ҫинчен каланӑ чухне 750 пин сӑмах пирки калаҫҫӗ)[14].
  • Базӑллӑ модельсен Long-context pretraining (LCP, акӑлчан чӗлхинчен — вӑрӑм контекстлӑ йӗркисемпе ӗҫлеме вӗрентесси) 200 млрд токенпа йӗркеленӗ, ҫакӑ сеть ӗҫлеме пултаракан контекстӑн вӑрӑмашне 4 пин токенран 16 пин токен таран ҫитерме май панӑ.
  • Модельсенсене Instruct мелӗпе уйрӑммӑн вӗрентес ӗҫ 2 млрд токен калӑпӑшлӑ инструкцисен пуххи никӗсӗ ҫинче пурнӑҫланнӑ[15].

2024 ҫулхи ҫу уйӑхӗнче DeepSeek чӗлхе моделӗн иккӗмӗш версине тӑватӑ вариантпа кӑларнӑ: стандартлине (V2), пӗчӗклетнине (V2-Lite), ҫавӑн пекех стандартлӑ чат-ботпа (V2-Chat) унӑн пӗчӗклетнӗ версине (V2-Chat-Lite).

Аслӑ модельсенчи параметрсен шучӗ 236 миллиарда ҫитнӗ; малтанах вӗрентнӗ чухне 8,1 триллион токенпа усӑ курнӑ, контекстӑн чи пысӑк тӑршшӗ вара 128 пин токенп ҫитнӗ.

Пӗрремӗш версипе танлаштарсан архитектура тӗлӗшӗнчен модельте питӗ пысӑк улшӑнусем пулса иртнӗ: унта Multi-head Learning Attention (MLA, акӑлчанла – «Нумай енлӗ тимлӗхпе вӗрентни»)[16] кӗҫӗн ранглӑ апроксимаци никӗсӗ ҫинче машинӑпа вӗрентмелли ҫӗнӗ меслетпе усӑ курнӑ, ҫакӑ моделе вӗрентмелли хака тата вӑхӑта темиҫе хутчен чакарма май панӑ[16][17]. Унсӑр пуҫне компани Mixture of Experts (MoE, акӑлчанла – «экспертсен шухӑшне хушни») принципа хатӗрлесе модельте усӑ курма тытӑннӑ: ҫакӑн пек майпа модель нумай ҫумсетьрен тӑрать, вӗсенчен кашни хӑйӗн ятарлӑ пӗлӳ облаҫӗшӗн яваплӑ, кирлӗ чухне кӑна ыйту хуравне шырама хутшӑнать[18][19].

MLA тата MoE меслетсемпе усӑ курни миллион токенпа ӗҫлеме кирлӗ хака 2 юань таран ҫитернӗ, ChatGPT вара ҫакнашкал пысӑк калӑпӑш валли 2,5 доллар кирлӗ пулнӑ[20]. Ҫав вӑхӑтрах DeepSeek-V2 ӗҫ пахалӑхӗ енӗпе те ӑмӑртма пултарнӑ: Ватерлоо университечӗ ҫумӗнчи искусствӑллӑ интеллект лабораторийӗ ӑна чи лайӑх пысӑк чӗлхе моделӗсен рейтингӗнче 7-мӗш вырӑна лартнӑ[21].

2024 ҫулхи раштав уйӑхӗнче уҫҫӑн усӑ курма модельӑн виҫҫӗмӗш версийӗ икӗ вариантпа тухнӑ: стандартлӑ (V3-Base) тата чат-бот (V3). Вӑл 671 миллиард параметртан тӑрать, ӑна 14,8 триллион токен ҫинче вӗрентнӗ. DeepSeek-V2 версийӗнче тӗрӗслесе пӑхнӑ архитектури ҫинчен йӗркеленӗ нейросеть текстсене тишкерсе каласа пама, тӗп информацие уйӑрма, куҫарма, ҫавӑн пекех математика задачисен тупсӑмне тупма тата OpenAI, Meta е Anthropic компанийӗсен чи аталаннӑ моделӗсемпе пӗр шайра программӑсем ҫырма[2] пултарать: сӑмахран, DeepSeek-V3 тестсем ирттернӗ хыҫҫӑн Llama 3.1 Qwen 2.5[1] модельтен лайӑхрах, вӑл GPT-4о тата Claude 3.5 Sonnet пӗртан пулнӑ[2][3].

DeepSeeek-V3 хӑвӑртлӑхне ытти пысӑк чӗлхе моделӗсемпе танлаштарни

DeepSeek ӑсталанӑ тӳлевсӗр приложение — «DeepSeek — AI Assistant» чат-бот — 2025 ҫулхи кӑрлач уйӑхӗн вӗҫӗнче тӗнчере чи нумай уҫласа илнӗ приложение пулса тӑнӑ, ҫавӑн пекех АПШ-ра чи пысӑк хаклав панӑ тӳлевсӗр приложенисен рейтингӗнче ChatGPT-на кая хӑварнӑ[22]. Унсӑр пуҫне DeepSeek санкцисен политикине пурнӑҫламасть, хӑйӗн моделӗпе ӗҫлеме нимӗнле чару та тумасть, тӗнчипе пур патшалӑхри халӑха та — ҫав шутра Раҫҫейрине те — усӑ курма пӗр тан майсем хатӗрлесе парать[2].

DeepSeeek-V3 чат-ботӑн веб-интерфейсӗ. Сервис официаллӑ майпа Раҫҫейре ӗҫлет, унта вырӑс чӗлхи те пур.

Моделе хатӗрлекенсем ҫирӗплетнӗ тӑрӑх, ӑна экспорт тӗрӗслевне тивӗҫтермешкӗн хавшатнӑ 2000 Nvidia видеокарти ҫинче вӗрентме 55 кун кӑна кирлӗ пулнӑ; ҫапла вара вӗрентмелли хак 5,5 миллион долларпа кӑна танлашнӑ, ку Llama е GPT-4o моделӗсене вӗрентнипе танлаштарсан самай йӳнӗрех[7][23].

Модель уйрӑмлӑхӗсем[тӳрлет | кодне тӳрлет]

Ҫакнашкал пахалӑха DeepSeek-ӑн архитектура уйрӑмлӑхӗсене пула тивӗҫтерме май килнӗ:

  • Multi-token Prediction (MTP) меслечӗ предложенин тӗрлӗ пайӗсене пӗр вӑхӑтра тишкерме те тата темиҫе сӑмаха маларах ӑнланса илме те май парать, ҫакӑ вара модель ӗҫне хӑвӑртлатать тата тӗрӗсрех хуравсем йӗркелеме май парать.
  • Mixture of Experts (MoE) технологийӗ моделе «экспертлӑ» ҫумсетьсем вырнаҫтарать, вӗсемпе усӑ курса ятарлӑ пӗлӳ облаҫӗсемпе ҫыхӑннӑ ыйтусен хуравне тупма май пур. DeepSeek-V3-ра ҫакнашкал 256 нейросеть вырнаҫтарнӑ, вӗсенчен саккӑрӑшӗ ялан ӗҫлеҫҫӗ, ыттисем вара уйрӑм йышши задачӑсен хуравне шыранӑ чухне ӗҫе хутшӑнаҫҫӗ.
  • Пӗчӗк ранглӑ аппроксимаци никӗсӗ ҫинче ӑсталанӑ тимлӗх механизмне ӗнерлеме Multi-head Latent Attention (MLA) меслечӗпе усӑ курни «пӗлтерӗш-ключ» (KV-cache) мӑшӑрсене упракан структурӑн (вӑл маларах шутласа кӑларнӑ информаципе хӑвӑрт ҫыхӑнассишӗн яваплӑ) калӑпӑшӗпе ӗҫ хӑвӑртлӑхне самай чакарма пулашнӑ[24].

2025 ҫулхи кӑрлачӑн 20-мӗшӗнче DeepSeek логикӑпа математика задачисене шутлама хӑйӗн шухӑшлакан DeepSeek R1 модельне кӑтартнӑ, AIME тата MATH математика тестӗсенче пурнӑҫланӑ чухне вӑл флагман шайӗнче тӑракан Open AI-o1 модельпе тан ӗҫленӗ[4]. Ҫак моделӗн уйрӑмлӑхӗ хуравсене утӑммӑн-утӑммӑн хатӗрлессинпе ҫыхӑннӑ, ҫакӑ ҫын шухӑшлавне аса илтерет[25][26][27]. Ӑна хатӗрленӗ чухне компани ҫирӗплетсе вӗрентекен вӑхӑтри хавхалантару моделӗнче ҫӗнӗ те тухӑҫлӑрах меслетпе усӑ курнӑ[28].

DeepSeeek-R1 тухӑҫлӑхне ытти пысӑк чӗлхе моделӗсемпе танлаштарни

2025 ҫулхи кӑрлач уйӑхӗнче финанс пасарӗ чакни[тӳрлет | кодне тӳрлет]

Вӗрентме тата усӑ курма чылай хут пӗчӗкрех тӑкаклакан модель тухни 2025 ҫулхи кӑрлачӑн 28-мӗшӗнче технологи компанийӗсен хакӗсене самай пӗчӗклетнӗ. Сӑмахран, нейросетьсене вӗрентмелли хатӗр-хӗтӗрсемпе тивӗҫтерекен тӗнчери чи пысӑк компани Nvidia 600 миллиард доллар ытла ҫӳхатнӑ, капитализацийӗ 18% чакнӑ, фонд пасарӗн историйӗнче хак ҫухатнинче ҫакӑ чи анлӑ чакни пулнӑ[29].

Искусствӑллӑ интеллект секторӗпе ҫыхӑннӑ ытти чылай компани те питӗ пысӑк ҫухатусем тӳснӗ — Аркадий Воложӑн Nebius компани (-4 %), Broadcom (-17,3 %), AMD (-8 %), Palantir (-7 %), Microsoft (-3 %), ҫавӑн пекех дата-центрсене электроэнергипе тивӗҫтерекен тӗп поставщиксем те шар курнӑ: Constellation Energy (-21 %), Vistra (-29 %). NASDAQ индекс 3,5 % анса ларнӑ, S&P вара 1,8 % ҫухатнӑ. Пӗтӗмӗшле илсен, Америкӑри биржӑсем 1 триллион доллар ытла ҫухатнӑ[29], криптовалютӑсен хакӗ 7 % чакнӑ[30].

Технологисене вӑрланӑ тесе айӑплани

[тӳрлет | кодне тӳрлет]

Кӑрлачӑн 29-мӗшӗнче Microsoft тата вӑл тытса тӑракан OpenAI DeepSeek-е хирӗҫ тӗпчеме пуҫлани ҫинчен паллӑ пулнӑ. Компанисем пӗлтернӗ тӑрӑх, Китайри стартап хӑйӗн моделӗсене OpenAI нейросетьсем хатӗрленӗ даннӑйсем ҫинче вӗсенчен ирӗк ыйтмасӑр вӗрентнӗ[31]. Америкӑри корпораци версийӗпе DeepSeek тунӑ модель пушӑ вырӑнта хатӗрленӗ япала мар, вӗсем даннӑйсемпе OpenAI ӑсталанӑ тата патентленӗ модельсемпе усӑ курса ӗҫленӗ[32].

АПШ санкцилени инновацисен пахалӑхне кӑтартни[тӳрлет | кодне тӳрлет]

DeepSeek моделӗсене вӗрентме 2021 ҫултах туяннӑ Nvidia A100 видеокарттӑсемпе усӑ курни паллӑ, вӑл вӑхӑтра АПШ Китай тӗлӗшпе чипсене импортласси тӗлӗшӗнчен чарусем йӗркелемен пулнӑ. Тӗрлӗ даннӑйсемпе DeepSeek стартапа ҫавнашкал 10 пин таран видеокарта лекнӗ (хӑшпӗр анӑҫри экспертсен шухӑшӗпе компани аллинче 40 пин ытла хавшатнӑ Nvidia H800 видеокарттӑн экспортлӑ варианчӗ пур[33][34]), ку OpenAI е Llama компанисенче усӑ куракан йышран темиҫе хут пӗчӗкрех (кашни компанийӗн 300 пин видеокартта таран пур)[35][36]. Ҫапла вара, шутлав хӑвачӗ ҫитменни DeepSeek-а ҫӳлерех асӑннӑ инновациллӗ архитектура меслечӗсене шырама хистенӗ те пулас, вӗсем ҫак йывӑрлӑхран тухма пулӑшнӑ[37].

Критиклени

[тӳрлет | кодне тӳрлет]

Claude AI чӗлхе моделӗсен чылай ярӑмне хатӗрленӗ Anthropic компанине йӗркеленӗ Дарио Амодей шухӑшӗпе Китайри разработчиксем чапа тухас тесе хӑйсем пирки янратса пӗлтернӗ кӑна, вӗсем чӑн-чӑн ҫитӗнӳсем тунӑ теме май ҫук. Амодей шухӑшӗпе DeepSeek американсем 7-10 уйӑх каялла ӑсталанӑ модельсен шайне ҫеҫ ҫывхарнӑ, ҫакӑн валли вӗсем сахалрах укҫа тӑкакланӑ кӑна, анчах ку тӑкаксене чакарассин юхӑмӗпе килӗшсе пырать. Унсӑр пуҫне Китайри стартап аллинче ресурссем сахал мар пулнӑ. Амодей палӑртнӑ тӑрӑх, DeepSeek лайӑх кӑтартусем тунӑ, анчах ҫакна революци теме май ҫук, мӗншӗн тесен тӑкаксене чакарни ку вӑхӑтри юхӑмпа килӗшсе тӑрать, ҫав вӑхӑтрах DeepSeek тунӑ пӗтӗмӗшле тӑкаксем Америкӑри ИИ-лабораторийӗсеннипе танах. Унсӑр пуҫне, DeepSeek-V3 версинче питӗ чаплӑ тесе хаклакан DeepSeek-R1 версипе танлаштарсан инновацисем ытларах[38].

Ӑнлантарусем

[тӳрлет | кодне тӳрлет]
  1. ^ 1, 2 Sharma, Shubham. DeepSeek-V3, ultra-large open-source AI, outperforms Llama and Qwen on launch (2024-12-26). Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  2. ^ 1, 2, 3, 4, 5 Нейросеть DeepSeek: что это, возможности, как пользоваться | РБК Тренды. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  3. ^ 1, 2 DeepSeek-V3: Китайская языковая модель превзошла Claude 3.5 Sonnet в работе с кодом. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  4. ^ 1, 2 DataSecrets. Разбираемся, как устроена R1 – новая бесплатная ризонинг модель ИИ из Китая, работающая на уровне o1 от OpenAI. Habr.ru (21 Кӑрлач уйӑхӗн 2025).
  5. ^ Разбираемся, как устроена R1 – новая бесплатная ризонинг модель ИИ из Китая, работающая на уровне o1 от OpenAI. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  6. ^ DeepSeek R1: модель с производительностью o1 от OpenAI. Сравнение с o1, сколько стоит и как использовать API. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  7. ^ 1, 2 Запад шокирован китайским интеллектом (2025-01-27). Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  8. ^ «DeepSeek – это победа над сегрегацией человечества»: как китайцы хакнули ИИ-рынок(паллӑ мар). БИЗНЕС Online. Пӑхнӑ кун: 28 Кӑрлач уйӑхӗн 2025.
  9. ^ Китайская угроза (2025-01-27). Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  10. ^ 暗涌. 揭秘DeepSeek:一个更极致的中国技术理想主义故事. Тĕрĕсленĕ 30 Кӑрлач уйӑхӗн 2025.
  11. ^ Schneider, Jordan. Deepseek: The Quiet Giant Leading China’s AI Race. Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  12. ^ Meta's chief AI scientist says DeepSeek's success shows that 'open source models are surpassing proprietary ones'. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  13. ^ Ksenia Se, Alyona Vert. Topic 10: Inside DeepSeek Models. Turing Post (28 Ҫурла уйӑхӗн 2024).
  14. ^ Wiggers, Kyle. DeepSeek's new AI model appears to be one of the best 'open' challengers yet | TechCrunch (2024-12-26). Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  15. ^ Guo, Daya, Zhu, Qihao, Yang, Dejian, Xie, Zhenda, Dong, Kai, Zhang, Wentao, Chen, Guanting, Bi, Xiao, Wu, Y., Li, Y. K., Luo, Fuli, Xiong, Yingfei, Liang, Wenfeng. DeepSeek-Coder: When the Large Language Model Meets Programming -- The Rise of Code Intelligence(акăлч.) // arXiv.org. — 2024-01-25.
  16. ^ 1, 2 DeepSeek — очередной квантовый скачок в развитии AI. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  17. ^ Dai, Damai, Deng, Chengqi, Zhao, Chenggang, Xu, R. X., Gao, Huazuo, Chen, Deli, Li, Jiashi, Zeng, Wangding, Yu, Xingkai, Wu, Y., Xie, Zhenda, Li, Y. K., Huang, Panpan, Luo, Fuli, Ruan, Chong, Sui, Zhifang, Liang, Wenfeng. DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models(акăлч.) // arXiv.org. — 2024-01-11.
  18. ^ Dai, Damai, Deng, Chengqi, Zhao, Chenggang, Xu, R. X., Gao, Huazuo, Chen, Deli, Li, Jiashi, Zeng, Wangding, Yu, Xingkai, Wu, Y., Xie, Zhenda, Li, Y. K., Huang, Panpan, Luo, Fuli, Ruan, Chong, Sui, Zhifang, Liang, Wenfeng. DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models(акăлч.) // arXiv.org. — 2024-01-11.
  19. ^ Большие языковые модели в 2024 году: полное сравнение (выр.). www.gptunnel.com. Пӑхнӑ кун: 29 Кӑрлач уйӑхӗн 2025.
  20. ^ DeepSeek вызвал истерику у Американских ИИ корпораций. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  21. ^ The Chinese quant fund-turned-AI pioneer, Financial Times (9 June 2024).
  22. ^ BFM.ru. Китайская модель ИИ DeepSeek стала лидером по скачиванию в США. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  23. ^ DeepSeek-AI, Liu, Aixin, Feng, Bei, Xue, Bing, Wang, Bingxuan, Wu, Bochao, Lu, Chengda, Zhao, Chenggang, Deng, Chengqi, Zhang, Chenyu, Ruan и др. DeepSeek-V3 Technical Report(акăлч.) // arXiv.org. — 2024-12-27.
  24. ^ Erdil, Ege. How has DeepSeek improved the Transformer architecture? (2025-01-17). Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  25. ^ Elizabeth Gibney. China’s cheap, open AI model DeepSeek thrills scientists(акăлч.) // Nature. — 2025-01-23. — ISSN 1476-4687. — DOI:10.1038/d41586-025-00229-6.
  26. ^ Chowdhury, Hasan KI aus China: Überholt dieses Startup jetzt OpenAI? (нем.). Business Insider (25 Кӑрлач уйӑхӗн 2025).
  27. ^ Sharma, Shubham Open-source DeepSeek-R1 uses pure reinforcement learning to match OpenAI o1 — at 95% less cost(паллӑ мар). VentureBeat (20 Кӑрлач уйӑхӗн 2025).
  28. ^ Moris. DeepSeek, по сути взломал один из святых Граалей ИИ. Smart-Lab (27 Кӑрлач уйӑхӗн 2025).
  29. ^ 1, 2 ИИ-пузырь лопнул: стоимость Nvidia рухнула на $600 млрд за сутки из-за китайского стартапа DeepSeek. Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  30. ^ Рынок криптовалют упал на 7%. Причем тут ИИ-стартап из Китая DeepSeek на NFT.RU (2025-01-27). Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  31. ^ Microsoft и OpenAI расследуют, обучался ли DeepSeek на украденных данных американских компаний в сфере ИИ. Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  32. ^ BFM.ru. DeepSeek заподозрили в краже технологий OpenAI. Тĕрĕсленĕ 29 Кӑрлач уйӑхӗн 2025.
  33. ^ Overclockers.ru: Одна только китайская компания DeepSeek имеет 50 000 санкционных чипов H100. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  34. ^ Zafar, Ramish. Chinese AI Lab DeepSeek Has 50,000 NVIDIA H100 AI GPUs, Says AI CEO (2025-01-25). Тĕрĕсленĕ 30 Кӑрлач уйӑхӗн 2025.
  35. ^ Times, GB. How many gpus does OpenAI have? - GB Times (2024-09-30). Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  36. ^ DeepSeek вызвал истерику у Американских ИИ корпораций. Тĕрĕсленĕ 28 Кӑрлач уйӑхӗн 2025.
  37. ^ Kelsey Vlamis,Katherine Tangalakis-Lippert. How the US may have unintentionally helped create an AI monster in China. AOL (28 Кӑрлач уйӑхӗн 2025).
  38. ^ Dario Amodei. Dario Amodei — On DeepSeek and Export Controls (англ.). darioamodei.com. Пӑхнӑ кун: 30 Кӑрлач уйӑхӗн 2025.