Kapcsolatba velünk

Gondolatvezetők

Az etikus mesterséges intelligenciahasználat nemcsak helyes dolog – jó üzlet is

mm

Közzététel:

 on

Ahogy a mesterséges intelligencia elterjedése szárnyal, és a szervezetek minden iparágban magukévá teszik a mesterséges intelligencia alapú eszközöket és alkalmazásokat, nem meglepő, hogy a kiberbűnözők már most is találnak módokat arra, hogy ezeket az eszközöket saját hasznukra célozzák és kihasználják. De bár fontos megvédeni a mesterséges intelligenciát a potenciális kibertámadásoktól, a mesterséges intelligencia kockázatának kérdése messze túlmutat a biztonságon. A kormányok világszerte kezdik szabályozni a mesterséges intelligencia fejlesztését és használatát – és a vállalkozások jelentős hírnévkárosodást szenvedhetnek el, ha nem megfelelő módon használják a mesterséges intelligenciát. A mai vállalkozások kezdik felfedezni, hogy a mesterséges intelligencia etikus és felelősségteljes használata nemcsak a helyes dolog, hanem kritikus fontosságú a bizalom kiépítése, a megfelelőség fenntartása, sőt, termékeik minőségének javítása szempontjából is.

A mesterséges intelligenciát övező szabályozási valóság

A gyorsan változó szabályozási környezetnek komoly aggodalomra kell okot adnia a mesterséges intelligencia alapú megoldásokat kínáló szállítók számára. Például a EU AI törvényA 2024-ben elfogadott törvény kockázatalapú megközelítést alkalmaz a mesterséges intelligencia szabályozásában, és „elfogadhatatlannak” minősíti azokat a rendszereket, amelyek olyan gyakorlatokat folytatnak, mint a közösségi pontozás, a manipulatív viselkedés és más potenciálisan etikátlan tevékenységek. Ezeket a rendszereket teljes mértékben tiltják, míg más, „magas kockázatú” mesterséges intelligenciarendszerekre szigorúbb kötelezettségek vonatkoznak a kockázatértékelés, az adatminőség és az átláthatóság terén. A szabályok be nem tartása esetén a büntetések súlyosak: az MI-t elfogadhatatlan módon használó vállalatokat akár 35 millió euróval vagy éves forgalmuk 7%-ával is megbírságolhatják.

Az EU mesterséges intelligencia törvénye csak egy jogszabály, de világosan szemlélteti bizonyos etikai küszöbértékek be nem tartásának súlyos költségeit. Kalifornia, New York, Colorado és más államok mind elfogadták saját mesterséges intelligencia irányelveik, amelyek többsége olyan tényezőkre összpontosít, mint az átláthatóság, az adatvédelem és az elfogultság megelőzése. És bár az Egyesült Nemzetek Szervezete nem rendelkezik a kormányok által élvezett végrehajtási mechanizmusokkal, érdemes megjegyezni, hogy mind a 193 ENSZ-tagország egyhangúlag jóváhagyta egy 2024-es állásfoglalásban kijelentette, hogy „az emberi jogokat és az alapvető szabadságokat a mesterséges intelligencia rendszerek teljes életciklusa alatt tiszteletben kell tartani, védeni és elő kell mozdítani”. Világszerte az emberi jogok és az etikai megfontolások egyre inkább előtérbe kerülnek a mesterséges intelligenciával kapcsolatban.

A rossz mesterséges intelligencia etika hírnévre gyakorolt ​​hatása

Bár a megfelelési aggályok nagyon is valósak, a történet itt nem ér véget. A tény az, hogy az etikus viselkedés előtérbe helyezése alapvetően javíthatja a mesterséges intelligencia által nyújtott megoldások minőségét. Ha egy mesterséges intelligencia által biztosított rendszerben eredendő elfogultság rejlik, az etikai okokból rossz – de azt is jelenti, hogy a termék nem működik olyan jól, ahogy kellene. Például bizonyos arcfelismerő technológiákat kritizáltak azért, mert azonosítás elmulasztása sötét bőrű arcokat és világos bőrű arcokat egyaránt. Ha egy arcfelismerő megoldás nem képes azonosítani az alanyok jelentős részét, az komoly etikai problémát jelent – ​​de azt is jelenti, hogy maga a technológia nem nyújtja a várt előnyt, és az ügyfelek nem lesznek elégedettek. Az elfogultság kezelése egyrészt enyhíti az etikai aggályokat, másrészt javítja magának a terméknek a minőségét.

Az elfogultsággal, diszkriminációval és méltányossággal kapcsolatos aggodalmak kellemetlen helyzetbe sodorhatják a szállítókat a szabályozó testületekkel szemben, de alááshatják az ügyfelek bizalmát is. Jó ötlet, ha vannak bizonyos „vörös vonalak” a mesterséges intelligencia használatának és a szolgáltatókkal való együttműködés tekintetében. A dezinformációval, tömeges megfigyeléssel, közösségi pontozással, elnyomó kormányokkal vagy akár csak az elszámoltathatóság általános hiányával összefüggő MI-szolgáltatók nyugtalanná tehetik az ügyfeleket, és a MI-alapú megoldásokat kínáló szállítóknak ezt szem előtt kell tartaniuk, amikor mérlegelik, hogy kivel működjenek együtt. Az átláthatóság szinte mindig jobb – azok, akik nem hajlandók felfedni, hogyan használják a mesterséges intelligenciát, vagy kik a partnereik, úgy néznek ki, mintha titkolnának valamit, ami általában nem erősíti a pozitív piaci hangulatot.

Etikai vészjelzések azonosítása és enyhítése

Az ügyfelek egyre inkább megtanulják keresni az etikátlan mesterséges intelligencia viselkedés jeleit. Azok a szállítók, akik túl sokat ígérnek, de nem magyarázzák el kellőképpen a mesterséges intelligencia képességeiket, valószínűleg nem mondanak igazat azzal kapcsolatban, hogy mire képesek valójában a megoldásaik. A rossz adatkezelési gyakorlatok, mint például a túlzott adatgyűjtés vagy a mesterséges intelligencia modelljeinek betanításából való kilépés hiánya szintén vészjelzést adhatnak. Manapság azoknak a szállítóknak, akik mesterséges intelligenciát használnak termékeikben és szolgáltatásaikban, egyértelmű, nyilvánosan elérhető irányítási keretrendszerrel kell rendelkezniük, amely elszámoltathatósági mechanizmusokat is tartalmaz. Azok, akik kötelező arbitrációt írnak elő – vagy ami még rosszabb, semmilyen jogorvoslati lehetőséget nem biztosítanak –, valószínűleg nem lesznek jó partnerek. Ugyanez vonatkozik azokra a szállítókra is, akik nem hajlandók vagy nem tudják megadni azokat a mérőszámokat, amelyek alapján felmérik és kezelik a mesterséges intelligencia modelljeikben lévő torzítást. A mai ügyfelek nem bíznak a fekete dobozos megoldásokban – tudni akarják, hogy mikor és hogyan alkalmazzák a mesterséges intelligenciát az általuk használt megoldásokban.

Azoknak a szállítóknak, akik mesterséges intelligenciát használnak termékeikben, fontos tudatniuk az ügyfelekkel, hogy az etikai szempontok mindenek felett állnak. Azoknak, akik saját MI-modelljeiket képezik, erős elfogultság-megelőzési folyamatokra van szükségük, míg azoknak, akik külső MI-szállítókra támaszkodnak, előnyben kell részesíteniük a tisztességes magatartásról ismert partnereket. Fontos az is, hogy az ügyfeleknek választási lehetőséget kínáljunk: sokan még mindig kényelmetlenül érzik magukat, ha adataikat MI-megoldásokra bízzák, és a MI-funkciók „leiratkozási” lehetősége lehetővé teszi számukra, hogy saját tempójukban kísérletezzenek. Az is kritikus fontosságú, hogy átláthatóak legyünk azzal kapcsolatban, hogy honnan származnak a betanítási adatok. Ez ismét etikus, de jó üzlet is – ha egy ügyfél azt tapasztalja, hogy a megoldás, amelyre támaszkodik, szerzői jogvédelem alatt álló adatokon lett betanítva, az megnyitja az utat a szabályozási vagy jogi lépések előtt. Azzal, hogy mindent nyilvánosságra hoznak, a szállítók bizalmat építhetnek ki ügyfeleikkel, és segíthetnek nekik elkerülni a negatív következményeket.

Az etika előtérbe helyezése az okos üzleti döntés

A bizalom mindig is fontos része volt minden üzleti kapcsolatnak. A mesterséges intelligencia ezt nem változtatta meg – de új szempontokat vezetett be, amelyekkel a szállítóknak foglalkozniuk kell. Az etikai aggályok nem mindig állnak az üzleti vezetők eszében, de a mesterséges intelligencia esetében az etikátlan viselkedésnek súlyos következményei lehetnek – beleértve a hírnév károsodását és a szabályozási és megfelelési előírások esetleges megsértését. Ami még rosszabb, az etikai szempontok, például az elfogultság mérséklésének figyelmen kívül hagyása aktívan károsíthatja a szállító termékeinek és szolgáltatásainak minőségét. Ahogy a mesterséges intelligencia elterjedése egyre gyorsabban terjed, a szállítók egyre inkább felismerik, hogy az etikus viselkedés előtérbe helyezése nemcsak a helyes dolog, hanem jó üzlet is.

Nick Kathmann a cég informatikai vezetője. LogicGateNick több mint 20 éves informatikai tapasztalattal rendelkezik, és 18 évet töltött azzal, hogy mindenféle méretű vállalatot segítsen kiberbiztonsági helyzetük megerősítésében. Számos csapatot épített és vezetett, amelyek kiberbiztonsági megoldásokat szállítottak összetett, üzletileg kritikus környezetek számára, a kis- és középvállalkozásoktól a Fortune 100-as vállalatokig, helyi, hagyományos adatközpontokban vagy felhőben. Emellett számos iparágban szerzett tapasztalatot, beleértve az egészségügyet és a pénzügyi szolgáltatásokat.