DEEPSEEK AT GEMINI: LUMALINGON SA MGA PATIMBANG PAGSASANAY NG AI MODELS
Sa mabilis na pag-unlad ng AI models, lumalaganap na ang mga pagkakataon kung saan nanghihiram ang isang kumpanya sa resulta ng iba para mapabilis ang training process. Isa sa mga pinakabagong kontrobersyang tumitibok sa ecosystem: ang DeepSeek at ang posibleng paggamit nito ng Google’s Gemini bilang training data.
ANONG SINASABI NG ULAT?
Batay sa isang ulat mula sa TechCrunch, maaaring ginamit ng DeepSeek ang outputs mula sa Gemini 2.5 Pro para sanayin ang kanilang pinakabagong modelong R1‑0528, base sa estilo ng salita at ekspresyon nito Si Sam Paech, isang developer mula sa Melbourne, ang nagdala sa publiko ng isyung ito sa pamamagitan ng kanyang X post.
BAKIT MAHALAGA ITO?
PANGKALAHATANG REAKSYON AT ANALISIS
Aspeto | Detalye |
---|---|
Teknikal | Ayon sa mga analysts, may pagkasuplado sa syntax at choice ng words sa R1-0528 na tumutugma sa Gemini 2.5 Pro |
Transparency | Walang malinaw na paliwanag mula sa DeepSeek kung saan galing ang training data, kaya maraming tanong pa rin ang bumabalot sa prosesong ito . |
Konteksto sa industriya | Lumilitaw ito kasabay ng patuloy na pagkilala sa lipunan sa halaga ng model provenance, ethics, at tamang access management sa mga large foundational models. |
Hinahayaan ng insidenteng ito na muling suriin ang mga pamantayan ng transparency, fair use, at ethical AI sa industriya. Habang ang innovation ay gaya ng nakikita natin sa DeepSeek R1-0528 ay nakakabighani, kailangang din ng malinaw na accountability sa bawat hakbang na ginagawa.
0 Mga Komento