Stumm Risikoförderend Roboter iwwerschreiden direkt Erfarungen an Instinkter an der neier Studie - Unite.AI
Connect mat eis

Ethik

Risiko-Promotiouns Roboter iwwerschreiden direkt Erfarungen an Instinkter an der neier Etude

aktualiséiert on

Nei Fuerschung, déi vun der University of Southampton erauskomm ass, weist wéi Roboter d'Leit encouragéiere kënnen méi grouss Risiken ze huelen am Verglach mat wann et näischt war wat hiert Verhalen beaflosst. D'Experimenter, déi an engem simuléierte Spillszenario duerchgefouert goufen, hëllefen Experten besser Risikoverhalen a Robotik ze verstoen souwuel ethesch a praktesch.

D'Fuerschung gouf vum Dr Yaniv Hanoch, Associate Professor am Risk Management op der University of Southampton geleet. Et gouf am Journal publizéiert Cybersecurity, Behuelen, a Sozial Netzwierker.

"Mir wëssen, datt de Peer-Drock zu méi héicht Risiko-Verhalen féiere kann", sot den Dr. "Mat der ëmmer méi grousser Skala vun der Interaktioun tëscht Mënschen an Technologie, online a kierperlech, ass et entscheedend datt mir méi verstoen ob Maschinnen en ähnlechen Impakt kënnen hunn."

Den Experiment

D'Etude huet 180 Bachelorstudenten involvéiert, déi d'Balloon Analog Risk Task (BART) gemaach hunn, wat e Computerbewäertung ass, deen d'Benotzer erfuerdert, e Ballon um Bildschierm opzebauen andeems se d'Spacebar op enger Tastatur drécken. De Ballon bléist liicht mat all Press, a Spiller kréien all Kéier e Penny an hirer "temporärer Geldbank". D'Ballone kënnen zu all Moment explodéieren, wat dozou féiert datt de Spiller Sue verléiert, awer si hunn d'Méiglechkeet fir ze "cashéieren" ier se de Ballon méi opbléien.

Een Drëttel vun de Participanten, déi d'Kontrollgrupp waren, hunn den Test eleng an hire Säll gemaach. En aneren Drëttel huet den Test geholl wärend hien vun engem Roboter begleet ass deen nëmmen Instruktioune geliwwert huet, soss ganz roueg. Déi lescht Grupp, déi den experimentellen Grupp war, huet den Test niewent engem Roboter gemaach, deen souwuel Instruktioune geliwwert huet an encouragéierend Aussoe geschwat huet, wéi "Firwat hutt Dir opgehalen ze pumpen."

Dës drëtt Grupp, déi vum Roboter encouragéiert gouf, huet méi riskant Verhalen gewisen wéi déi aner Gruppen, an huet d'Ballone méi opgeblosen. Gläichzäiteg hu si méi Sue verdéngt par rapport zu deenen anere Gruppen. Wat d'Gruppen ugeet, déi vum stille Roboter begleet sinn an ouni Roboter, gouf et kee groussen Ënnerscheed tëscht deenen zwee.

"Mir hunn d'Participanten an der Kontrollbedéngung gesinn, hir Risikoverhalen no enger Ballonexplosioun zréckzekréien, wärend déi am experimentellen Zoustand weider esou vill Risiko huelen wéi virdrun", sot den Dr. Hanoch. "Also, direkt Encouragement vun engem Risiko-Promotiouns Roboter ze kréien schéngt d'direkt Erfarungen an Instinkter vun de Participanten ze iwwerschreiden."

D'Fuerscher wäerte weider Studien maachen fir e bessert Verständnis vun der mënschlecher Interaktioun mat anere Kënschtlech Intelligenz (AI) Systemer ze hunn, dorënner digital Assistenten.

"Mat der breet Verbreedung vun der AI Technologie a sengen Interaktioune mat de Mënschen ass dëst e Gebitt dat dréngend Opmierksamkeet vun der Fuerschungsgemeinschaft brauch", huet den Dr. Hanoch weider.

"Engersäits kënnen eis Resultater Alarm iwwer d'Perspektiv vu Roboteren erhéijen, déi duerch e erhéicht Risiko Verhalen schueden. Op der anerer Säit weisen eis Daten op d'Méiglechkeet Roboteren an AI a präventiven Programmer ze benotzen, wéi Anti-Fëmmen Kampagnen an de Schoulen, a mat schwéier z'erreechen Populatiounen, wéi Sucht.

Den Alex McFarland ass en AI Journalist a Schrëftsteller deen déi lescht Entwécklungen an der kënschtlecher Intelligenz exploréiert. Hien huet mat villen AI Startups a Publikatiounen weltwäit zesummegeschafft.