Nagpahayag si Mark Zuckerberg, CEO ng Meta, ng kanyang pangako na gawing bukas sa publiko ang artificial general intelligence (AGI) sa hinaharap. Ang AGI ay isang uri ng AI na kayang gawin ang anumang gawain na kaya ng isang tao. Ngunit ayon sa bagong inilabas na dokumento ng Meta, may mga pagkakataon na maaaring hindi nito ilabas ang isang napakalakas na AI system na kanilang binuo.
Sa tinatawag nilang Frontier AI Framework, tinukoy ng Meta ang dalawang uri ng AI system na masyadong delikado upang ipalaganap: ang "high-risk" at "critical-risk" systems.
Ayon sa Meta, ang parehong uri ng AI ay may kakayahang makatulong sa mga cyberattack, pati na rin sa mga chemical at biological na pag-atake. Gayunpaman, ang "critical-risk" system ay maaaring magdulot ng malawakang kapahamakan na hindi maaaring kontrolin sa kasalukuyang deployment. Samantala, ang "high-risk" system ay maaaring magpabilis ng isang pag-atake, ngunit hindi ito kasing mapanganib ng critical-risk system.
Mga Potensyal na Panganib ng AI
Nagbigay ang Meta ng ilang halimbawa ng posibleng panganib na dulot ng AI, tulad ng awtomatikong pagsira sa isang mataas na protektadong corporate network at ang pagpapalaganap ng mga makapangyarihang biological weapons. Ayon sa kumpanya, bagama’t hindi kumpleto ang listahang ito, ito ang mga itinuturing nilang kinkailangang pagtuonan ng pansin na banta kung sakaling ilabas ang isang napakalakas na AI.
Nakasaad rin sa dokumento na hindi lamang sa isang tiyak na pagsubok ang pagtatasa ng panganib ng isang AI system. Sa halip, nakadepende ito sa pagsusuri ng mga panloob at panlabas na eksperto na sinusuri naman ng matataas na opisyal ng Meta. Ayon sa kumpanya, hindi pa sapat ang kasalukuyang agham upang magkaroon ng tiyak at eksaktong pagsusuri sa panganib ng isang AI system.
Hakbang ng Meta sa Panganib ng AI
Kung matukoy na high-risk ang isang AI system, lilimitahan ng Meta ang access dito at hindi ito ilalabas hangga’t hindi naibababa ang panganib sa isang katanggap-tanggap na antas. Samantala, kung ang isang AI ay itinuturing na critical-risk, agad na ihihinto ng kumpanya ang pag-develop nito at magpapatupad ng mga hakbang upang maiwasang ito ay magamit sa maling paraan.
Ang Frontier AI Framework ay isang hakbang ng Meta upang ipakita ang kanilang responsableng pamamahala sa AI, kasabay ng nalalapit na France AI Action Summit ngayong buwan. Ang patakarang ito ay sagot din sa mga batikos sa bukas na diskarte ng Meta sa pag-develop ng AI, kung saan ginagawa nilang available ang kanilang teknolohiya sa publiko—isang estratehiyang kabaligtaran ng OpenAI na mas mahigpit sa paglalabas ng kanilang mga AI models.
Pagkakaiba ng Meta sa Ibang AI Companies
Ang bukas na estratehiya ng Meta ay may parehong benepisyo at panganib. Ang AI models nila, partikular ang Llama, ay na-download na ng daan-daang milyong beses. Ngunit ayon sa ilang ulat, ang teknolohiyang ito ay ginamit na rin ng ilang bansa upang lumikha ng defense chatbots.
Sa pagbabahagi ng Frontier AI Framework, tila sinusubukan din ng Meta na ipakita ang kanilang mas responsableng diskarte sa AI kumpara sa Chinese AI firm na DeepSeek. Ang DeepSeek ay kilala rin sa bukas na paglalabas ng AI models ngunit may mas kaunting seguridad, na nagdudulot ng posibilidad na magamit ito sa paglikha ng mapanganib at maling impormasyon.
“Naniniwala kami na sa balanseng pagtingin sa mga benepisyo at panganib ng AI, maaaring maihatid ang teknolohiyang ito sa lipunan nang may tamang pamamahala,” ayon sa Meta.
Habang patuloy na umuunlad ang AI, mas nagiging kritikal ang usapin ng seguridad at etika sa paggamit nito. Ang bagong hakbang ng Meta ay nagpapakita ng kanilang pagsisikap na gawing mas ligtas ang hinaharap ng artificial intelligence.
0 Mga Komento