stub Berpirsiyar AI çi ye? Prensîb, Zehmetî, & Feydeyên - Unite.AI
Girêdana bi me

AI 101

Berpirsiyar AI çi ye? Prensîb, Zehmet û Feydeyên

mm
Demê on
Mirovek ku di nav zeviyan de rawestiya ye, di destên xwe de cîhanê digire.

Berpirsiyar AI (RAI) behsa sêwirandin û bicîhkirina pergalên AI-ê yên ku zelal, bêalî, berpirsiyar in û rêwerzên exlaqî dişopînin vedibêje. Her ku pergalên AI-ê bihêztir û serdest dibin, pêbaweriya ku ew bi berpirsiyarî têne pêşve xistin û şopandina rêwerzên ewlehî û exlaqî girîng e.

Tenduristî, Veguhestin, Rêvebiriya Torê, û Çavdêrî ne sepanên AI-krîtîk ên ewlehiyê ku têkçûna pergalê dikare encamên giran hebe. Pargîdaniyên mezin dizanin ku RAI ji bo kêmkirina xetereyên teknolojiyê pêdivî ye. Lêbelê li gorî raporek MIT Sloan / BCG ku 1093 bersivdar tê de, 54% ji pargîdaniyan pispor û jêhatîbûna AI-ya Berpirsyar tune bû.

Her çend serokên raman û rêxistinan ji bo AI-ya berpirsiyar prensîbên pêşdebirine jî, misogerkirina pêşkeftina berpirsiyar a pergalên AI-ê hîn jî pirsgirêkan peyda dike. Ka em vê ramanê bi berfirehî vekolin:

5 Prensîbên ji bo AI-a berpirsiyar

1. Edalet

Divê teknolog proseduran sêwirînin da ku pergalên AI-ê bi tevahî kes û koman re bi rengekî adil bêyî alîgiriyê derman bikin. Ji ber vê yekê, dadperwerî di serîlêdanên biryargirtinê yên xeternak de hewcedariya bingehîn e.

Rastî wekî:

"Lêkolîna bandora li ser komên demografîk ên cihêreng û hilbijartina yek ji çend pênaseyên matematîkî yên dadperweriya komê ku dê bi têra xwe komek xwestekên qanûnî, çandî û exlaqî têr bike."

2. Hesab

Berpirsiyarî tê vê wateyê ku kes û rêxistinên ku pergalên AI-yê pêş dixin û bi cîh dikin divê ji biryar û kiryarên xwe berpirsiyar bin. Tîma ku pergalên AI-ê bicîh dike divê pê ewle bibe ku pergala wan a AI-yê şefaf, şîrovekirî, veguhezbar e û zirarê nade civakê.

Berpirsiyarî tê de ye heft pêkhat:

  1. Çarçove (armanca ku berpirsiyarî hewce ye)
  2. Range (mijara berpirsiyariyê)
  3. Agent (kî berpirsiyar e?)
  4. Forum (ku divê alîyê berpirsiyar rapor bike)
  5. Standard (pîvanên berpirsiyariyê)
  6. Pêvajo (rêbaza berpirsiyariyê)
  7. Encamên (encamên berpirsiyariyê)

3. Zelalbûn

Zelalbûn tê vê wateyê ku sedema li pişt biryargirtinê di pergalên AI-ê de zelal û têgihîştî ye. Pergalên AI-ê yên zelal têne ravekirin.

Ligor Lîsteya Nirxandinê ya Ji bo Îstixbarata Hunerî ya pêbawer (ALTAI), şefafî sê hêmanên sereke hene:

  1. Şopandin (dane, gavên pêşdibistanê, û modela gihîştî ye)
  2. Ravekirin (aqilê li pişt biryargirtinê / pêşbîniyê diyar e)
  3. Têkiliya Vekirî (li ser sînorkirina pergala AI-ê)

4. Taybetî

Nepenî yek ji prensîbên sereke yên AI-ya berpirsiyar e. Ew behsa parastina agahdariya kesane dike. Ev prensîb piştrast dike ku agahdariya kesane ya kesane bi razîbûnê têne berhev kirin û pêvajo kirin û ji destên naverokê dûr têne girtin.

Wekî ku di van demên dawî de hate îsbat kirin, bûyerek Clearview, pargîdaniyek ku modelên nasîna rû ji bo qanûn û zanîngehan çêdike, hebû. Çavdêrên daneyên Brîtanyayê doz li Clearview AI ji bo 7.5 milyon £ ji bo berhevkirina wêneyên niştecîhên Keyaniya Yekbûyî ji medyaya civakî bêyî destûr ji bo afirandina databasek ji 20 milyar wêneyan.

5. Ewlekarî

Ewlekarî tê vê wateyê ku pergalên AI-yê ewledar in û civakê tehdîd nakin. Nimûneyek xetereya ewlehiya AI-ê ye êrîşên dijmin. Van êrîşên xerab modelên ML dixapînin da ku biryarên nerast bidin. Parastina pergalên AI-ê ji êrişên sîber ji bo AI-ya berpirsiyar mecbûrî ye.

4 Zehmetiyên Mezin & Rîskên AI-ya Berpirsiyar

1. Bias

Nerazîbûnên mirovî yên ku bi temen, zayend, netewe û nijadê ve girêdayî ne dikarin bandorê li berhevkirina daneyan bikin, ku dibe sedema modelên AI-ê yên alîgir. Lêkolîna Wezareta Bazirganî ya Dewletên Yekbûyî dît ku naskirina rûyê AI-ê mirovên rengîn şaş nas dike. Ji ber vê yekê, karanîna AI-ê ji bo naskirina rûyê di dadrêsiyê de dikare bibe sedema girtinên xelet. Di heman demê de, çêkirina modelên AI-ê yên adil dijwar e ji ber ku hene 21 parametreyên cuda ji bo danasîna wan. Ji ber vê yekê, bazirganiyek heye; têrkirina yek parameterek AI-ya adil tê wateya qurbankirina ya din.

2. Şirovekirin

Di pêşxistina AI-ya berpirsiyar de ravekirin pirsgirêkek krîtîk e. Ew têgihîştina ka modela fêrbûna makîneyê çawa gihîştiye encamek taybetî.

Tora neuralî ya kûr kêmasiya şirovekirinê ye ji ber ku ew wekî Qutiyên Reş bi gelek qatên noyronên veşartî tevdigerin, ku fêmkirina pêvajoya biryargirtinê dijwar dike. Ev dikare di biryargirtinên bilind ên wekî lênihêrîna tenduristî, darayî, hwd de bibe dijwariyek.

Wekî din, fermîkirina şîrovekirina di modelên ML de dijwar e ji ber ku ew e nezerî û domain-taybet.

3. Rêveberî

Rêvebirî komek rêgez, polîtîka û prosedurên ku çavdêriya pêşkeftin û bicîhkirina pergalên AI-ê dikin vedibêje. Di van demên dawî de, di gotara rêveberiya AI-ê de pêşkeftinek girîng heye, digel ku rêxistin çarçove û rêwerzên exlaqî pêşkêş dikin.

Rêbernameyên exlaqî ji bo AI-ya pêbawer ji hêla YE veÇarçoveya Etîka AI-ya Avusturalya, û Prensîbên OECD AI mînakên çarçoveyên rêveberiya AI-ê ne.

Lê pêşkeftina bilez a di AI-ê de di van salên dawî de dikare ji van çarçoveyên rêveberiya AI-ê derbas bibe. Ji bo vê armancê, pêdivî ye ku çarçoveyek hebe ku dadperwerî, şîrovekirin, û etîka pergalên AI-ê binirxîne.

4. Rêzikname

Her ku pergalên AI-ê berbelavtir dibin, pêdivî ye ku rêzikname hebe ku nirxên exlaqî û civakî bêne hesibandin. Pêşxistina rêziknameya ku nûjeniya AI-yê asteng nake di AI-ya berpirsiyar de pirsgirêkek krîtîk e.

Tewra digel Rêziknameya Parastina Daneyên Giştî (GDPR), Qanûna Nepenîtiya Serfkaran a California (CCPA), û Qanûna Parastina Agahdariya Kesane (PIPL) wekî saziyên birêkûpêk, lêkolînerên AI-ê dîtin ku 97% Malperên Yekîtiya Ewropî bi daxwazên çarçoweya qanûnî ya GDPR re tevnagerin.

Bi ser de jî, qanûndaner rû a dijwariyek girîng di gihîştina lihevhatinek li ser pênasekirina AI-yê ku hem pergalên AI-ya klasîk û hem jî serîlêdanên herî dawî yên AI-ê dihewîne.

3 Feydeyên sereke yên AI-ya Berpirsiyar

1. Kêmkirin Bias

AI-ya berpirsiyar di pêvajoyên biryargirtinê de, pêbaweriyê di pergalên AI-ê de ava dike. Di pergalên AI-ê de kêmkirina alîgiriyê dikare pergalek lênihêrîna tenduristî ya dadperwer û wekhev peyda bike û di bingeha AI-ê de neyartiyê kêm bike. xizmetên darayî hwd.

2. Zelalbûnek pêşkeftî

AI-ya berpirsiyar serîlêdanên AI-ya şefaf çêdike ku pêbaweriyê di pergalên AI-ê de ava dike. Pergalên AI-ê yên zelal metirsiya xeletî û xeletî kêm bike. Zelalbûna pêşkeftî kontrolkirina pergalên AI hêsantir dike, baweriya beşdaran qezenç dike, û dikare bibe sedema pergalên AI-ê yên berpirsiyar.

3. Ewlekariya Better

Serîlêdanên AI-ya ewledar nepeniya daneyê piştrast dikin, hilberek pêbawer û bê zirar çê dikin, û ji êrîşên sîber ewle ne.

dêwên teknolojiyê mîna microsoft û Gûgil, ku di pêşkeftina pergalên AI-ê de pêşeng in, prensîbên AI-ê yên Berpirsyar pêşve xistine. AI-ya berpirsiyar piştrast dike ku nûbûn di AI-ê de ji kes û civakê re ne zirarê ye.

Rêberên raman, lêkolîner, rêxistin û rayedarên dadrêsî divê bi domdarî wêjeya AI-ê ya berpirsiyar guhezînin da ku pêşerojek ewledar ji nûvekirina AI-yê re peyda bikin.

Ji bo bêtir naveroka têkildarî AI-ê, biçin yekbûn.ai.