Ad Code

Responsive Advertisement

DeepSeek Ina-upgrade ang Math-Focused AI Model na “Prover”

DeepSeek Ina-upgrade ang Math-Focused AI Model na “Prover”

Mas Malalim na Kakayahan sa Matematika

Tahimik ngunit makabuluhang in-update ng Chinese AI lab na DeepSeek ang kanilang AI model na Prover, na partikular na dinisenyo para lumutas ng mathematical proofs at theorems.

Ayon sa ulat ng South China Morning Post, in-upload ng DeepSeek ang pinakabagong bersyon ng Prover (V2) at ang distilled variant nito sa AI development platform na Hugging Face noong Miyerkules ng gabi.

Ang bagong modelong ito ay tila nakatayo sa pundasyon ng V3 model ng kumpanya, na may 671 bilyong parameters at gumagamit ng mixture-of-experts (MoE) architecture.


Ano ang MoE at Parameters?

  • Parameters – Tumutukoy sa lawak ng kakayahang magsolusyon ng isang AI model. Mas mataas, mas malawak ang saklaw ng pag-iisip.
  • MoE (Mixture of Experts) – Isang arkitektura kung saan hinihimay sa maliliit na bahagi ang problema, at ang bawat bahagi ay inaasikaso ng specialized experts sa loob ng model.


Bukas at Pinag-isipan

Huling in-update ang Prover noong Agosto, kung saan inilarawan ito ng DeepSeek bilang isang custom at openly available AI model para sa formal theorem proving at mathematical reasoning.

Sa kabila ng teknikal na kalikasan nito, sinisikap ng DeepSeek na panatilihing open-access ang model para magamit sa pananaliksik, edukasyon, at mga eksperimento.


Lumalawak ang Ambisyon ng DeepSeek

Noong Pebrero, iniulat ng Reuters na pinag-iisipan na ng DeepSeek ang unang round ng external funding. Nitong mga nakaraang linggo ay naglabas ito ng upgraded version ng V3, ang kanilang general-purpose model, at inaasahang susunod ang update sa R1, ang kanilang reasoning model.

Mag-post ng isang Komento

0 Mga Komento

Ad Code

Responsive Advertisement