Viongozi wa Mawazo
AI-Kwanza Inamaanisha Usalama-Kwanza

Mnunulie mtoto baiskeli mpya kabisa, na baiskeli hiyo itavutia umakini wote—sio kofia inayong'aa inayoambatana nayo. Lakini wazazi wanathamini kofia hiyo.
Ninaogopa wengi wetu leo ​​ni kama watoto linapokuja suala la akili bandia (AI). Tunazingatia jinsi ilivyo nzuri na jinsi tunavyoweza kuishughulikia haraka. Sio sana kuhusu kile tunachoweza kufanya ili kukaa salama kwani tunaitumia. Ni jambo la kusikitisha kwa sababu huwezi kupata faida ya moja bila nyingine.
Kwa ufupi, kutumia akili bandia bila kupanga kwa makini usalama kwanza si hatari tu. Ni njia iliyonyooka kutoka kwenye mwamba.
Usalama wa AI Unamaanisha Nini Hata?
Usalama wa akili bandia unahusisha hatua nyingi. Lakini labda jambo muhimu zaidi ni wakati kuzitumia. Ili kuwa na ufanisi, Usalama wa AI lazima uwe kwa muundo.
Hiyo ina maana kwamba tunafikiria jinsi ya kuzuia madhara kabla ya kuyafanya kwa jaribio. Tunagundua jinsi ya kuhakikisha AI inafanya kazi na kutoa matokeo yanayolingana na maadili na matarajio yetu ya kijamii kwanza—sio baada ya kupata matokeo mabaya.
Kubuni usalama wa AI pia kunajumuisha kufikiria jinsi ya kuifanya iwe imara, au kuweza kufanya kazi kwa kutabirika hata katika hali mbaya. Inamaanisha kuifanya AI iwe wazi, ili maamuzi ambayo AI hufanya yaeleweke, yaweze kukaguliwa, na yasiyo na upendeleo.
Lakini pia inajumuisha kuangalia ulimwengu ambao AI itafanya kazi. Ni ulinzi gani wa kitaasisi na kisheria tunaohitaji, hasa ili kuzingatia kanuni za serikali zinazotumika? Na siwezi kusisitiza kupita kiasi sehemu ya watu: Je, athari ya matumizi ya AI itakuwa nini kwa watu wanaoingiliana nayo?
Usalama kwa muundo unamaanisha kupachika usalama wa AI katika michakato yetu yote, mtiririko wa kazi, na shughuli kabla ya kuandika kidokezo chetu cha kwanza.
Hatari Zinazidi Mawazo
Sio kila mtu anakubali. Wanaposikia "usalama kwanza," wengine husikia "piga hatua kwa uangalifu na polepole sana kiasi kwamba unaachwa nyuma." Bila shaka, hiyo sio maana ya usalama kwanza. Hailazimiki kukandamiza uvumbuzi au kupunguza muda wa kuingia sokoni. Na haimaanishi mkondo usio na mwisho wa marubani ambao hawajawahi kupanda. Kinyume chake kabisa.
Inamaanisha kuelewa hatari za isiyozidi kubuni usalama katika akili bandia. Fikiria machache tu.
- Kituo cha Huduma za Kifedha cha Deloitte inatabiri kwamba GenAI inaweza kuwajibika kwa hasara za ulaghai zinazofikia dola bilioni 40 za Marekani nchini Marekani pekee ifikapo mwaka 2027, kutoka dola bilioni 12.3 za Marekani mwaka 2023, kiwango cha wastani cha asilimia 32.
- Maamuzi yenye upendeleo. Hati ya kesi huduma ya matibabu yenye upendeleo kutokana na AI ambayo ilikuwa imefunzwa kuhusu data iliyoegemea upande mmoja.
- Maamuzi mabaya yanayochochea maamuzi mabaya zaidi. Mbaya zaidi kuliko uamuzi mbaya wa awali uliochochewa na AI yenye kasoro, tafiti zinaonyesha kwamba maamuzi hayo yenye makosa yanaweza kuwa sehemu ya jinsi tunavyofikiri na kufanya maamuzi ya baadaye.
- Matokeo halisi. AI inayotoa ushauri mbaya wa kimatibabu imekuwa ikisababisha matokeo mabaya kwa wagonjwa. Masuala ya kisheria yametokana na kutaja ndoto za AI kama mfano wa kisheria. Na makosa ya programu yanayotokana na msaidizi wa AI kutoa taarifa potofu yamechafua bidhaa za kampuni na sifa zao na kusababisha kutoridhika kwa watumiaji.
Na mambo yanakaribia kuvutia zaidi.
Ujio na kupitishwa kwa haraka kwa AI ya kikali, AI ambayo inaweza kufanya kazi kwa uhuru ili kuchukua hatua kulingana na maamuzi iliyofanya, itaongeza umuhimu wa kubuni kwa ajili ya usalama wa AI.
Wakala wa AI anayeweza kutenda kwa niaba yako anaweza kuwa na manufaa makubwa. Badala ya kukuambia kuhusu ndege bora zaidi kwa safari, anaweza kumpata na kumpa nafasi ya kuziweka. Ukitaka kurudisha bidhaa, wakala wa AI wa kampuni hangeweza tu kukuambia sera ya kurejesha na jinsi ya kuwasilisha marejesho, lakini pia kushughulikia muamala mzima kwa ajili yako.
Nzuri—mradi tu wakala hadanganyi ndege au kushughulikia vibaya taarifa zako za kifedha. Au amekosea sera ya kampuni ya kurejesha na kukataa kurejesha halali.
Si vigumu sana kuona jinsi hatari za usalama za AI za sasa zinavyoweza kusambaa kwa urahisi na mawakala wengi wa AI wakizunguka-zunguka wakifanya maamuzi na kutenda, hasa kwa vile huenda wasingefanya peke yao. Thamani kubwa katika AI ya kihuduma itatoka kwa timu za mawakala, ambapo mawakala binafsi hushughulikia sehemu za kazi na kushirikiana—wakala kwa wakala—ili kukamilisha kazi.
Kwa hivyo unakubali vipi usalama wa AI kwa usanifu bila kuathiri uvumbuzi na kuua thamani yake inayowezekana?
Usalama kwa Ubunifu Ukifanya Kazi
Ukaguzi wa usalama wa dharura sio suluhisho. Lakini kuunganisha mbinu za usalama katika kila awamu ya utekelezaji wa AI ndio suluhisho.
Anza na data. Hakikisha data imebandikwa lebo, imeelezwa inapohitajika, haina upendeleo, na ina ubora wa hali ya juu. Hii ni kweli hasa kwa data ya mafunzo.
Wazoeze mifumo yako kwa maoni ya kibinadamu, kwani uamuzi wa kibinadamu ni muhimu ili kuunda tabia ya mfumo. Kuimarisha Kujifunza kwa Maoni ya Kibinadamu (RLHF) na mbinu zingine zinazofanana huruhusu wafafanuzi kukadiria na kuongoza majibu, na kusaidia LLM kutoa matokeo ambayo ni salama na yanayolingana na maadili ya kibinadamu.
Kisha, kabla ya kutoa modeli, ijaribu kwa msongo wa mawazo. Timu nyekundu zinazojaribu kuchochea tabia isiyo salama kwa kutumia vidokezo vya uhasama, visa vya ukiukwaji, na majaribio ya kuvunjika kwa jela zinaweza kufichua udhaifu. Kuzirekebisha kabla hazijawafikia umma huweka mambo salama kabla ya tatizo kutokea.
Ingawa jaribio hili linahakikisha mifumo yako ya akili bandia (AI) ni imara, endelea kuwafuatilia kwa uangalifu dhidi ya vitisho na marekebisho yanayojitokeza ambayo yanaweza kuhitajika kwa mifumo hiyo.
Vivyo hivyo, fuatilia vyanzo vya maudhui na mwingiliano wa kidijitali mara kwa mara ili kuona dalili za ulaghai. Kimsingi, tumia mbinu mseto ya AI-binadamu, ukiruhusu AI-otomatiki kushughulikia idadi kubwa ya data zinazopaswa kufuatiliwa, na wanadamu wenye ujuzi kushughulikia mapitio kwa ajili ya utekelezaji na kuhakikisha usahihi.
Kutumia AI ya kikali kunahitaji uangalifu zaidi. Sharti la msingi: kumfundisha wakala kujua mapungufu yake. Anapokutana na kutokuwa na uhakika, matatizo ya kimaadili, hali mpya, au maamuzi muhimu sana, hakikisha anajua jinsi ya kuomba msaada.
Pia, tengeneza ufuatiliaji kwa mawakala wako. Hii ni muhimu sana ili mwingiliano wake utokee tu na watumiaji waliothibitishwa, ili kuepuka wahusika wadanganyifu wanaoathiri vitendo vya wakala.
Ikiwa wanaonekana kufanya kazi kwa ufanisi, inaweza kuwa jambo la kushawishi kuwaacha mawakala wafanye mambo yao. Uzoefu wetu unasema tuendelee kuwafuatilia na kazi wanazotimiza ili kuangalia makosa au tabia zisizotarajiwa. Tumia ukaguzi otomatiki na ukaguzi wa kibinadamu.
Kwa kweli, kipengele muhimu cha usalama wa akili bandia ni ushiriki wa kawaida wa binadamu. Wanadamu wanapaswa kushirikishwa kimakusudi ambapo hukumu muhimu, huruma, au dhana potofu na utata vinahusika katika uamuzi au kitendo.
Tena, ili kuwa wazi, haya yote ni mazoea unayojenga katika utekelezaji wa AI mapema, kwa kubuniSio matokeo ya kitu kinachoenda vibaya kisha kukimbilia kutafuta jinsi ya kupunguza uharibifu.
Je, Inafanya Kazi?
Tumekuwa tukitumia falsafa ya Usalama wa AI ya Kwanza na mfumo wa "kwa muundo" kwa wateja wetu katika kipindi chote cha kuibuka kwa GenAI na sasa tuko kwenye njia ya haraka kuelekea AI ya kiofisi. Tunaona kwamba, kinyume na wasiwasi kuhusu kupunguza kasi ya mambo, kwa kweli husaidia kuyaharakisha.
Kwa mfano, AI ya Wakala ina uwezo wa kupunguza gharama ya usaidizi kwa wateja kwa 25-50%, huku ikiongeza kuridhika kwa wateja. Lakini yote inategemea uaminifu.
Wanadamu wanaotumia AI lazima waiamini, na wateja wanaoingiliana na mawakala wa kibinadamu wanaowezeshwa na AI au na mawakala halisi wa AI hawawezi kupata mwingiliano hata mmoja ambao ungedhoofisha uaminifu wao. Uzoefu mmoja mbaya unaweza kuondoa imani katika chapa.
Hatuamini kile ambacho si salama. Kwa hivyo, tunapojenga usalama katika kila safu ya AI tunayokaribia kuianzisha, tunaweza kufanya hivyo kwa kujiamini. Na tunapokuwa tayari kuipanua, tunaweza kufanya hivyo haraka—kwa kujiamini.
Ingawa kuweka Usalama wa AI Kwanza katika vitendo kunaweza kuonekana kuwa jambo gumu, hauko peke yako. Kuna wataalamu wengi wa kusaidia na washirika ambao wanaweza kushiriki kile walichojifunza na wanachojifunza ili uweze kutumia thamani ya AI kwa usalama bila kukupunguza mwendo.
AI imekuwa safari ya kusisimua hadi sasa, na kadri safari inavyozidi kuharakisha, naiona kuwa ya kusisimua. Lakini pia ninafurahi kwamba nimevaa kofia yangu ya chuma.












