stub Fikarên li ser xetereyên potansiyel ên ChatGPT Zêde dibin lê Ma Rawestandina li ser AI tevgerek baş e? - Yekbûn.AI
Girêdana bi me

Rêberên Ramanê

Fikarên li ser xetereyên potansiyel ên ChatGPT Zêde dibin lê Ma Rawestandina li ser AI tevgerek baş e?

mm

Published

 on

Dema ku Elon Musk û rêberên teknolojiyê yên din ên gerdûnî banga a rawestin li AI piştî serbestberdana ChatGPT, hin rexnegir bawer dikin ku rawestandina pêşveçûnê ne bersiv e. Mizgînvanê AI Andrew Pery, ji pargîdaniya otomasyonê aqilmend ABBYY, bawer dike ku veqetandin mîna vegerandina macûna diranan di boriyê de ye. Li vir, ew ji me re dibêje çima…

Serîlêdanên AI-ê berbelav in, bi rastî bandorê li her rûyê jiyana me dikin. Digel ku pesnê xwe bidin, lê danîna frenên nuha dibe ku neguncan be.

Bê guman fikarên berbiçav hene ku banga zêdekirina çavdêriya birêkûpêk dikin ku di bandorên wê yên zirardar ên potansiyel de serdest be.

Di van demên dawî de, Desthilata Parastina Daneyên Italiantalî ji ber fikarên nepenîtiyê yên ku bi awayê berhevkirin û hilanîna daneyên kesane yên ku ji bo perwerdekirina modelê têne bikar anîn, û her weha kêmbûna xuyang a parastinê, zarokan li ber bersivên "temam" de, bi demkî karanîna ChatGPT li seranserê welêt asteng kir. ne li gorî temen û hişmendiya wan e.”

Rêxistina Serfkaran a Ewropî (BEUC) ji YE daxwaz dike ku li ser bandorên potansiyel ên zirardar ên modelên zimanên mezin lêkolîn bike ji ber ku "fikarên mezin dibin li ser ka ChatGPT û chatbotên mîna wan çawa dikarin mirovan bixapînin û manîpule bikin." Van pergalên AI-ê hewceyê çavdêriya gelemperî ya mezintir in, û rayedarên giştî divê ji nû ve kontrolê li ser wan bikin."

Di Dewleta Yekbûyî de, Navenda AI û Siyaseta Dîjîtal ji Komîsyona Bazirganî ya Federal re gilî kiriye ku ChatGPT beşa 5 ya Qanûna Komîsyona Bazirganî ya Federal (Qanûna FTC) (15 USC 45) binpê dike. Bingeha gilî ev e ku ChatGPT bi îdiaya ku bi ser nakeve birêvebirî Ji hêla FTC ve ji bo şefafî û ravekirina pergalên AI-yê hatî destnîşan kirin. Navnîşan li ser pejirandinên ChatGPT yên gelek naskirî hate kirin rîsk di nav de binpêkirina mafên nepenîtiyê, hilberîna naveroka zirardar, û belavkirina dezenformasyonê.

Bikaranîna modelên zimanên mezin ên wekî ChatGPT tevî lêkolînê potansiyela wê destnîşan dike aliyê tarî. Hat îsbat kirin ku bersivên nerast hildiberîne, ji ber ku modela bingehîn a ChatGPT-ê li ser algorîtmayên fêrbûna kûr a ku komên daneyên perwerdehiyê yên mezin ji înternetê bikar tîne, bingeh digire. Berevajî chatbotên din, ChatGPT modelên zimanî li ser bingeha teknîkên fêrbûna kûr bikar tîne ku nivîsek mîna danûstendinên mirovan çêdike, û platform "bi çêkirina rêzek texmînan digihîje bersivekê, ku ev yek beşek e ji sedema ku ew dikare bersivên xelet nîqaş bike mîna ku ew bi tevahî rast bûn."

Wekî din, ChatGPT hate îsbat kirin ku baldarîyê zêde dike û di encamê de "bersivên ku li dijî zayend, nijad, û komên hindikahî cihêkariyê dikin, tiştek ku pargîdanî hewl dide kêm bike." ChatGPT di heman demê de dibe ku ji bo aktorên nefret jî ji bo bikarhênerên bê guman îstismar bikin, wan tawîz bidin. taybetî û eşkerekirina wan êrîşên scam.

Van fikaran hişt ku Parlamentoya Ewropayê a şirove ku pêwîstiya bi xurtkirina zêdetir bendên heyî yên pêşnûmeyê xurtir dike Qanûna îstîxbarata sûnî ya YE, (AIA) ku hê jî li benda erêkirinê ye. Şîrove destnîşan dike ku pêşnûmeya heyî ya rêziknameya pêşniyarkirî balê dikişîne ser tiştê ku wekî serîlêdanên teng ên AI-yê têne binav kirin, ku ji kategoriyên taybetî yên pergalên AI-yê yên xeternak ên wekî leşkerkirin, hêjayiya krediyê, kar, bicihanîna qanûnê û mafdariya karûbarên civakî pêk tê. Lêbelê, pêşnûmeya rêziknameya AIA ya Yekîtiya Ewropî AI-ya mebesta gelemperî nagire, mîna modelên zimanên mezin ên ku kapasîteyên naskirî yên pêşkeftî peyda dikin û yên ku dikarin "gelek berfereh karên aqilmend pêk bînin." Banga dirêjkirina çarçoweya pêşnûmaya rêziknameyê heye da ku kategoriyek cûda, bi xetereya bilind a pergalên AI-yê-armanca gelemperî bigire, ku ji pêşdebiran re tê xwestin ku berî ku pergalên weha li sûkê bi cih bikin ceribandinek hişk a pêş- ante bikin û bi domdarî performansa wan ji bo şopandinê bikin. encamên zerardar ên neçaverêkirî yên potansiyel.

Parçeyek bi taybetî arîkar lêkolîn balê dikişîne ser vê valahiyê ku rêziknameya AIA ya Yekîtiya Ewropî "di serî de li ser modelên AI-ya kevneşopî ye, û ne li ser nifşa nû ya ku îro em şahidê zayîna wî ne."

Ew çar stratejiyên ku divê rêvebiran bifikirin pêşniyar dike.

  1. Ji pêşdebirên pergalên weha re hewce dike ku bi rêkûpêk li ser bandoriya pêvajoyên rêveberiya xetera xwe rapor bikin da ku encamên zirardar kêm bikin.
  2. Karsaziyên ku modelên zimanên mezin bikar tînin divê neçar bin ku ji xerîdarên xwe re eşkere bikin ku naverok ji AI-ê hatî çêkirin.
  3. Pêşdebir divê bibin aboneyê pêvajoyek fermî ya serbestberdana qonax, wekî beşek ji çarçoveyek rêveberiya xetereyê, ku ji bo parastina li hember encamên zirardar ên potansiyel ên nediyar hatine çêkirin.
  4. Berpirsiyariyê bidin ser pêşdebiran da ku "metirsiya di koka wê de kêm bikin" bi pêdivî ye ku "bi pro-aktîf daneyên perwerdehiyê yên ji bo vegotinên xelet kontrol bikin."

Faktorek ku xetereyên ku bi teknolojiyên têkbirker ve girêdayî ye berdewam dike ev e ku ji hêla nûjenan ve bi pejirandina modela karsaziya "pêşî keştiyek û paşê rast bikin" sûdwergirtina yekem e. Dema ku OpenAI hinekî ye rohnî di derbarê xetereyên potansiyel ên ChatGPT de, wan ew ji bo karanîna bazirganî ya berfireh bi barek "kiryar haydar" li ser bikarhêneran derxistiye ku xetereyan bi xwe binirxînin û bigirin. Dibe ku ew nêzîkatiyek bêkêmasî be ji ber bandora berbelav a pergalên AI-ya danûstendinê. Pêdivî ye ku rêziknameya proaktîf digel tedbîrên înfazê yên zexm gava ku meriv teknolojiyek wusa têkçûyî bi rêve dibe girîng be.

Zehmetiya çêkirî jixwe hema hema li her beşê jiyana me derbas dibe, tê vê wateyê ku sekinandinek li ser pêşkeftina AI-ê dikare gelek astengî û encamên nediyar be. Li şûna ku ji nişka ve şikestinan derxînin, lîstikvanên pîşesazî û qanûnî divê bi dilnizmî hevkariyê bikin da ku rêziknameya çalak a ku ji nirxên mirov-navendî yên mîna şefafî, berpirsiyarî û dadperweriyê ve girêdayî ye, bicîh bikin. Bi referanskirina qanûnên heyî yên wekî AIA, serokên di sektorên taybet û giştî de dikarin polîtîkayên bêkêmasî, standardkirî yên gerdûnî dîzayn bikin ku dê pêşî li karanîna xirab bigire û encamên neyînî sivik bike, bi vî rengî îstîxbarata sûnî di nav sînorên başkirina ezmûnên mirovî de bihêle.

Andrew Pery Mizgînvanek Ehlaqê ya AI-ê ye li pargîdaniya otomasyona aqilmend ABBYY. Pery xwedan 25 sal zêdetir ezmûn e ku bernameyên rêveberiya hilberê ji bo pargîdaniyên teknolojiya gerdûnî yên pêşeng pêşeng dike. Pisporiya wî di otomasyona pêvajoya belgeyê ya aqilmend de ye û îstîxbarata pêvajoyê bi pisporiyek taybetî di teknolojiyên AI, nermalava serîlêdanê, nepeniya daneyê û etîka AI-ê de ye. Ew xwediyê destûrnameyek masterê ya dadrêsê ye bi Cûdahî ji Dibistana Hiqûqê ya Pritzker a Zanîngeha Northwestern û Profesyonelek Nepeniya Daneyên pejirandî ye.