Ad Code

Responsive Advertisement

Gusto ng Anthropic na "Buksan" ang Itim na Kahon ng AI Models Pagsapit ng 2027

Gusto ng Anthropic na "Buksan" ang Itim na Kahon ng AI Models Pagsapit ng 2027

Sa isang makabuluhang sanaysay na pinamagatang "The Urgency of Interpretability," ibinahagi ni Dario Amodei, CEO ng Anthropic, ang isang mapangahas na layunin:

Matutunan kung paano talaga gumagana ang mga AI models bago pa man tuluyang maabot ang Artificial General Intelligence (AGI).

Ayon kay Amodei, masyado nang malakas at makapangyarihan ang mga AI models ngayon para basta na lang gamitin nang hindi lubusang nauunawaan.

Hindi katanggap-tanggap para sa sangkatauhan na manatiling ignorante kung paano gumagana ang mga sistemang ito.


Interpretability: Ang Susunod na Hamon ng AI

Ang interpretability ang tawag sa larangang nagtutuklas kung paano ginagawa ng AI models ang kanilang mga desisyon. Bagaman mabilis ang pagtaas ng performance ng AI ngayon, kaunti pa rin ang alam ng mga eksperto kung bakit nagkakamali o pumipili ng partikular na aksyon ang isang model.

Isang halimbawa: kahit inilunsad ng OpenAI ang mga bagong modelo nitong o3 at o4-mini na mas mahusay sa ilang tasks, mas madalas pa rin silang mag-"hallucinate"—at hindi rin alam ng kumpanya kung bakit. Dagdag ni Amodei:

Kapag nagsumite ang AI ng buod ng isang financial document, hindi natin tiyak kung bakit niya pinili ang ilang salita at bakit minsan ito nagkakamali.


MRI Para sa AI?

Sa hinaharap, nais ng Anthropic na magkaroon ng parang "brain scan" o "MRI" para sa AI models. Layunin nitong tukuyin ang sumusunod:

  • Kung kailan nagsisinungaling ang AI
  • Kung may mga tendencies itong mangibabaw o manloko
  • At iba pang kahinaan na maaaring magdulot ng panganib

Ayon kay Amodei, maaaring abutin ng 5 hanggang 10 taon bago magawa ito nang maayos. Pero para sa Anthropic, obligado itong gawin para sa ligtas at etikal na paggamit ng AI.


Mga Breakthrough at Paunang Tagumpay

Hindi pa man perpekto, nakagawa na ang Anthropic ng ilang pag-usad:

  • Natuklasan nila ang ilang "circuits" sa loob ng mga AI model—halimbawa, kung paano nauunawaan ng AI kung aling U.S. cities ang nasaang states.
  • Bagaman kakaunti pa lang ang nadidiskubre nila, tinatayang milyon-milyon ang ganitong circuits na umiiral sa loob ng isang model.

Nag-invest na rin ang Anthropic sa ibang interpretability-focused startups, bilang suporta sa pagpapalawak ng kaalaman sa larangang ito.


Pagtawag para sa Mas Malawak na Industriya at Gobyerno na Suporta

Hindi lang para sa sariling kumpanya ang hangarin ni Amodei. Sa kanyang sanaysay, nanawagan siya sa:

  • OpenAI at Google DeepMind na palawakin ang kanilang interpretability research
  • Pamahalaan ng U.S. na magpatupad ng "light-touch" regulation para hikayatin ang transparency sa AI
  • Pagkontrol sa export ng AI chips patungong China upang maiwasan ang posibleng "out-of-control" global AI race


Hindi Lang Lakas—Kundi Pag-unawa

Kung karera ang pagbuo ng pinakamalakas na AI noon, ngayon, ang bagong hamon ay pag-intindi. Dahil ayon kay Amodei:

Hindi sapat na magkaroon tayo ng isang bansa ng mga henyo sa loob ng data center. Kailangan nating malaman kung paano sila nag-iisip bago natin sila hayaan.

At sa pananaw ng Anthropic, ang tunay na susi sa ligtas na kinabukasan ng AI ay hindi lang nakasalalay sa kung gaano ito katalino—kundi kung gaano natin ito naiintindihan.

Mag-post ng isang Komento

0 Mga Komento

Ad Code

Responsive Advertisement