Ad Code

Responsive Advertisement

Meta Maaaring Itigil ang Pag-develop ng AI na Itinuturing na Masyadong Mapanganib


Nagpahayag si Meta CEO Mark Zuckerberg ng pangakong gawing bukas sa publiko ang artificial general intelligence (AGI) o ang AI na kayang gampanan ang anumang gawain na nagagawa ng tao. Gayunpaman, ayon sa isang bagong inilabas na dokumento ng kumpanya, maaaring hindi ilabas ng Meta ang ilang malalakas na AI system na kanilang nadebelop kung ito ay itinuturing nilang delikado.

Sa dokumentong tinatawag nilang "Frontier AI Framework," tinukoy ng Meta ang dalawang uri ng AI system na itinuturing nilang masyadong mapanganib upang ilabas sa publiko: ang "high risk" at "critical risk" na mga sistema.

Ayon sa Meta, ang parehong "high risk" at "critical risk" na mga AI system ay may kakayahang makatulong sa mga cyber attack, pati na rin sa paglikha ng kemikal at biyolohikal na armas. Ang pangunahing pagkakaiba sa dalawa ay ang "critical risk" na AI ay maaaring magdulot ng "malawakang kapahamakan na hindi kayang mapigilan sa anumang konteksto ng deployment." Samantala, ang "high risk" na AI ay maaaring gawing mas madali ang isang pag-atake, ngunit hindi ito kasinglakas o katiyak ng "critical risk" na sistema.

Ilan sa mga posibleng panganib na binanggit ng Meta ay ang "automated end-to-end compromise" ng isang corporate-scale na network na may advanced na proteksyon at ang "paglaganap ng high-impact biological weapons." Bagama't hindi ito kumpletong listahan ng mga maaaring panganib, tinukoy ng kumpanya na ito ang ilan sa mga "pinakamahalagang" banta na maaaring idulot ng paglabas ng isang makapangyarihang AI system.

Kagulat-gulat na sa dokumentong ito, inilahad ng Meta na ang pag-uuri nila ng panganib ng isang AI system ay hindi batay sa isang tiyak na pagsubok, kundi sa opinyon ng mga panloob at panlabas na eksperto na sinusuri ng mga senior-level na opisyal ng kumpanya. Ayon sa Meta, hindi pa sapat ang kasalukuyang agham upang magkaroon ng tiyak at kwantipikadong batayan para sa pagtukoy ng panganib ng isang AI system.

Kung matukoy ng Meta na ang isang sistema ay may "high risk," lilimitahan nila ang access dito at hindi ito ilalabas hanggang sa maipatupad ang mga hakbang upang mabawasan ang panganib. Samantala, kung ang isang sistema ay masuri bilang "critical risk," titiyakin ng kumpanya ang mas mahigpit na seguridad upang maiwasan ang data breach at maaaring ihinto ang pag-develop nito hanggang sa ito ay mapahina ang potensyal na pinsala.

Ang Frontier AI Framework ng Meta ay isang hakbang upang tugunan ang mga kritisismo laban sa kanilang "open" approach sa AI development. Hindi tulad ng OpenAI na naglalagay ng restriksyon sa kanilang mga AI system gamit ang API access, nananatiling mas bukas ang Meta sa pagbabahagi ng kanilang teknolohiya. Gayunpaman, nagdulot ito ng parehong benepisyo at panganib, tulad ng malawakang pag-download ng kanilang AI model na Llama, na umano'y ginamit pa ng isang kalabang bansa ng U.S. upang lumikha ng isang AI chatbot para sa depensa.

Sa pamamagitan ng publikasyon ng Frontier AI Framework, maaaring sinusubukan din ng Meta na ipakita ang pagkakaiba ng kanilang diskarte sa AI kumpara sa Chinese AI firm na DeepSeek. Habang parehong ginagawang bukas ang kanilang mga AI system, mas kaunti ang safeguards sa AI ng DeepSeek, na nagpapadali sa paggawa ng mapanirang nilalaman.

"Naniniwala kami na sa maingat na pagsusuri ng parehong benepisyo at panganib ng advanced AI, posible nating maihatid ang teknolohiyang ito sa lipunan nang may balanseng antas ng seguridad at kapakinabangan," ayon sa Meta sa kanilang dokumento.

Mag-post ng isang Komento

0 Mga Komento

Ad Code

Responsive Advertisement